src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
ABSTRACT-loggar genereras av system för att registrera detaljerad körtidsinformation om systemdrift, och logganalys spelar en viktig roll för anomalidetektering på värd- eller nätverksnivå. De flesta befintliga detektionsmetoder kräver förkunskaper som inte kan användas för att upptäcka nya eller okända anomalier. Dessutom innebär den växande mängden stockar nya utmaningar när det gäller att upptäcka anomalier. I detta dokument föreslår vi en integrerad metod med K-prototype clustering och k-NN klassificeringsalgoritmer, som använder en ny kluster-filtrering-raffinaderi ram för att utföra anomali upptäckt från massiva loggar. Först analyserar vi egenskaperna hos systemloggar och extraherar 10 funktioner baserat på sessionsinformationen för att karakterisera användarens beteende på ett effektivt sätt. För det andra, baserat på dessa extraherade funktioner, används klusteralgoritmen K-prototyp för att partitionera datauppsättningen i olika kluster. Sedan filtreras de uppenbara normala händelser som vanligtvis förekommer som mycket sammanhängande kluster bort, och de andra betraktas som anomalier kandidater för ytterligare analys. Slutligen utformar vi två nya avståndsbaserade funktioner för att mäta de lokala och globala anomaligraderna för dessa anomalikandidater. Baserat på dessa två nya funktioner, använder vi k-NN klassificeraren för att generera exakta detektionsresultat. För att verifiera den integrerade metoden byggde vi en log insamling och anomali detektion plattform i campus nätverk centrum Xi'an Jiaotong University. De experimentella resultaten baserade på de datamängder som samlats in från plattformen visar att vår metod har hög detektionsnoggrannhet och låg beräknings komplexitet. | Zhaoli m.fl. I REF föreslogs en integrerad metod med användning av K-prototype- och k-NN-algoritmer i följd för att utföra anomalisdetektering, och två nya avståndsbaserade funktioner utformades för att mäta anomaligraden i detta ramverk för klustringsfilterraffinaderi. | 49,417,276 | An Integrated Method for Anomaly Detection From Massive System Logs | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,008 |
Detta dokument behandlar uppgiften att använda tekniker för naturligt språk (NLG) för att generera meningar med formell och informell stil. Vi studerade de viktigaste egenskaperna hos varje stil, vilket hjälpte oss att välja parametrar som kan producera meningar i en av de två stilar. Vi samlade några färdiga parallella listor över formella och informella ord och fraser, från olika källor. Dessutom har vi lagt till ytterligare två parallella listor: en som innehåller de flesta sammandragningar på engelska (korta former) och deras fullständiga former, och en annan som består av några vanliga förkortningar och deras fullständiga former. Dessa parallella listor kan bidra till att generera meningar i önskad stil, genom att ändra ord eller uttryck för den stilen. Vårt NLG-system är byggt ovanpå SimpleNLG-paketet (Gatt och Reiter, 2009 ). Vi använde mallar från vilka vi genererade giltiga engelska texter med formell eller informell stil. För att utvärdera kvaliteten på de frambragta domarna och deras formalitet använde vi mänskliga domare. Utvärderingsresultaten visar att vårt system kan generera formell och informell stil framgångsrikt, med hög noggrannhet. Det viktigaste bidraget från vårt arbete består i att utforma en uppsättning parametrar som ledde till goda resultat för uppgiften att skapa texter med olika formalitetsnivåer. | Ref fokuserade uppmärksamheten på val av röst i den generationsuppgift som skiljer formella och informella meningar från varandra. | 12,504,014 | Generation of Formal and Informal Sentences | {'venue': 'ENLG', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,009 |
Vi utvecklar robotar med socialt lämpliga rumsliga färdigheter inte bara för att resa runt eller nära människor, utan också för att följa med människor sida vid sida. Som ett steg mot detta mål undersöker vi de sociala uppfattningarna om en robots rörelse som följer bakom en person. I detta dokument diskuteras vår laserbaserade personspårningsmetod och två olika tillvägagångssätt för personföljning: riktningsföljning och vägföljning. Medan båda algoritmerna har liknande egenskaper när det gäller spårningsprestanda och följande avstånd, ansåg deltagarna i en pilotstudie att det riktningsföljande beteendet var betydligt mer mänskligt och naturligt än det vägföljande beteendet. Vi hävdar att den vägföljande metoden fortfarande kan vara mer lämplig i vissa situationer, och vi föreslår att den ideala person som följer beteendet kan vara en hybrid metod, med roboten automatiskt välja vilken metod att använda. | En ny laserbaserad personspårningsmetod utvecklades av Gockley et al. Hoppa över det. | 2,549,761 | Natural person-following behavior for social robots | {'venue': "HRI '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,010 |
Transaktionsbaserade system förlitar sig ofta på write-ahead loggningsalgoritmer (WAL) som är utformade för att maximera prestandan på diskbaserad lagring. Emellertid uppstår snabbt, byte-adresserable, non-volatile memory (NVM) teknologier (t.ex., fas-förändring minnen, spin-överföring vridmoment MRAMs, och memristor) presenterar mycket olika prestanda egenskaper, så blithely tillämpa befintliga algoritmer kan leda till besvikelse prestanda. Detta papper presenterar en ny lagring primitiva, kallas redigerbara atomiska skriver (EAW), som möjliggör sofistikerade, högt optimerade WAL system i snabb NVM-baserade lagringssystem. EAW:er gör det möjligt för applikationer att på ett säkert sätt få tillgång till och ändra loggens innehåll i stället för att behandla loggen som en enkel, skrivskyddad datastruktur, och vi visar att detta kan göra genomförandet av komplexa transaktioner enklare och effektivare. Vi använder arresteringsorder för att bygga MARS, ett WAL-system som ger samma funktioner som ARIES [26] (ett allmänt använt WAL-system för databaser) men undviker att göra diskcentrerade genomförandebeslut. Vi har implementerat EAWs och MARS i nästa generations SSD för att visa att omkostnaderna för EAWs är minimala jämfört med normala skrifter, och att de ger stora hastighetshöjningar för transaktionsuppdateringar av hashtabeller, B+trees och stora grafer. Dessutom, MARS överträffar ARIES med upp till 3.7× samtidigt minska programvara komplexitet. | I NVM-baserad sekundärlagring föreslår MARS REF ett nytt gränssnitt, redigerbart atomiskt skrivande (EAW), i en PCIe SSD för att optimera WAL. | 2,546,011 | From ARIES to MARS: transaction support for next-generation, solid-state drives | {'venue': "SOSP '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,011 |
Simulering kan vara ett kraftfullt verktyg för att förstå maskininlärningssystem och designa metoder för att lösa verkliga problem. Utbildning och utvärdering av metoder enbart i simulering är ofta "dömt att lyckas" vid önskad uppgift i en simulerad miljö, men de resulterande modellerna är oförmögna att fungera i den verkliga världen. Här presenterar och utvärderar vi en metod för att överföra en visionsbaserad körbana efter körpolicy från simulering till drift på en landsväg utan några riktiga etiketter. Vår strategi utnyttjar de senaste framstegen inom bild-till-bild-översättning för att uppnå domänöverföring samtidigt som vi gemensamt lär oss en enda kamerakontrollpolicy från simuleringskontrolletiketter. Vi bedömer körprestandan för denna metod med hjälp av både regressionsmått för öppen trafik och prestanda för sluten trafik som kör ett autonomt fordon på landsvägar och stadsvägar. | Bewley och Al. REF använder bild-till-bild-översättning för att överföra en visionsbaserad körpolicy från simulering till verklighet. | 54,461,709 | Learning to Drive from Simulation without Real World Labels | {'venue': '2019 International Conference on Robotics and Automation (ICRA)', 'journal': '2019 International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 6,012 |
Programvarudefinierade nätverk underlättar snabb och öppen innovation i kontrollskiktet genom att tillhandahålla en programmerbar nätverksinfrastruktur för dataflödespolicyer på begäran. Dynamiken i programmerbara nät innebär dock också nya säkerhetsutmaningar som kräver innovativa lösningar. En kritisk utmaning är effektiv upptäckt och avstämning av potentiellt motstridiga flödesregler som införts av dynamiska OpenFlow-tillämpningar (OF). I detta syfte introducerar vi FortNOX, ett programtillägg som ger rollbaserad behörighet och säkerhetsbegränsning för NOX OpenFlow controller. FortNOX gör det möjligt för NOX att kontrollera flödesregelns motsägelser i realtid, och implementerar en ny analysalgoritm som är robust även i fall där en kontradiktorisk tillämpning försöker att strategiskt infoga flödesregler som annars skulle kringgå flödesregler som införts av OF säkerhetsapplikationer. Vi demonstrerar nyttan av FortNOX genom en prototypimplementering och använder den för att undersöka prestanda- och effektivitetsaspekter av det föreslagna ramverket. | Fort-NOX REF föreslogs som en utökning av programvaran som syftar till att säkerställa efterlevnad av säkerhetsbegränsningar för OpenFlow-styrenheter, för att kunna identifiera indirekta säkerhetsöverträdelser. | 3,501,044 | A security enforcement kernel for OpenFlow networks | {'venue': "HotSDN '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,013 |
Att korrekt förutsäga den riktning som grenarna kommer att ta blir allt viktigare i dagens breda datorarkitekturer. Namnet programbaserad gren förutsägelse ges till statiska gren förutsägelse tekniker som baserar sin förutsägelse på ett programs struktur. I den här artikeln undersöker vi ett nytt tillvägagångssätt till programbaserad gren förutsägelse som använder en kropp av befintliga program för att förutsäga grenens beteende i ett nytt program. Vi kallar detta tillvägagångssätt till program-baserad gren förutsägelse evidens-baserad statisk förutsägelse, eller ESP. Den huvudsakliga idén med ESP är att beteendet hos en corpus av program kan användas för att dra slutsatser om beteendet hos nya program. I den här artikeln använder vi neurala nätverk och beslut träd för att kartlägga statiska funktioner i samband med varje gren till en förutsägelse att grenen kommer att tas. ESP uppvisar betydande fördelar jämfört med andra förutsägelser. Specifikt är det en programbaserad teknik; det är effektivt över en rad olika programmeringsspråk och programmeringsstilar; och det inte förlitar sig på användningen av expertdefinierade heuristik. I den här artikeln beskriver vi tillämpningen av ESP på problemet med statiska gren förutsägelser och jämför våra resultat med befintliga programbaserade gren prediktorer. Vi undersöker också tillämpligheten av ESP för datorarkitekturer, programmeringsspråk, kompilatorer och run-time system. Vi ger resultat som visar hur känslig ESP är för antalet och typen av statiska funktioner och program som ingår i ESP träningsset, och vi jämför effekten av statiska gren förutsägelser för subrutinbibliotek. I genomsnitt över en kropp av 43 C och Fortran program, ESP gren förutsägelse resulterar i en missfrekvens på 20%, jämfört med 25% missfrekvens som erhållits med hjälp av de bästa befintliga programbaserade heuristik. | Calder m.fl. REF presenterade ett nytt tillvägagångssätt för att förutsäga grenar för ett nytt program baserat på beteende hos andra program. | 8,865,665 | Evidence-based static branch prediction using machine learning | {'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,014 |
Vi tar upp utformningen av komplexa monolitiska system, där processkärnor genererar och förbrukar en varierande och stor mängd data, vilket för kommunikationslänkarna till kanten av trängsel. Typiska tillämpningar är inom området multimediabehandling. Vi överväger en meshbased Networks on Chip (NoC) arkitektur, och vi utforskar tilldelningen av kärnor till mesh-cross-points så att trafiken på länkar uppfyller bandbredd begränsningar. En enkelriktad deterministisk routing mellan kärnorna ställer höga bandbreddskrav på länkarna. Kraven på bandbredd kan minskas avsevärt genom att dela upp trafiken mellan kärnorna över flera vägar. I detta dokument presenterar vi NMAP, en snabb algoritm som kartlägger kärnorna på ett nät NoC arkitektur under bandbredd begränsningar, minimerar den genomsnittliga kommunikationsfördröjningen. NMAP-algoritmen presenteras för både enkel minimi-bana routing och splittraffic routing. Algoritmen tillämpas på ett riktmärke DSP design och den resulterande NoC byggs och simuleras på cykel exakt nivå i SystemC med hjälp av makron från ×pipe biblioteket. Experiment med sex videobehandlingstillämpningar visar också betydande besparingar i bandbredd och kommunikationskostnad för NMAP-algoritm jämfört med befintliga algoritmer. | I Ref föreslår författarna exempelvis en kartläggningsalgoritm för att optimera kommunikationslatensen mellan kärnorna, som kan tillämpas på ett lovande kommunikationsparadigm som kallas Network-on-Chip (NoC). | 9,311,650 | Bandwidth-Constrained Mapping of Cores onto NoC Architectures | {'venue': "DATE '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,015 |
Trådlöst sensornätverk (WSN) har studerats i stor utsträckning under de senaste åren. Sådana tillämpningar omfattar resursbegränsade inbäddade sensornoder som har liten storlek och låga effektkrav. Baserat på behovet av förlängda nätlivslängder i WSN när det gäller energianvändning blir energieffektiviteten i beräknings- och kommunikationsverksamheten i sensornoder kritisk. Tillämpningar för digital signalbehandling (DSP) kräver vanligtvis intensiv databehandling och som ett resultat är det svårt att genomföra direkt i resursbegränsade WSN. I den här artikeln presenterar vi en ny designmetodik för modellering och implementering av beräkningsintensiva DSP-applikationer som tillämpas på trådlösa sensornätverk. Denna metod utforskar effektiva modellering tekniker för DSP applikationer, inklusive dataanalys och bearbetning; härleder formuleringar av Energy-Driven Partitioning (EDP) för att distribuera sådana applikationer över trådlösa sensornätverk; och utvecklar effektiva heuristiska algoritmer för att hitta partitionering resultat som maximerar nätverkets livslängd. För att ta itu med ett sådant energidrivet partitioneringsproblem, ger denna artikel ett nytt sätt att aggregera data och minska kommunikationstrafiken bland noder baserat på applikationsanalys. Genom att överväga låga data token leveranspunkter och fördelningen av beräkningar i ansökan, vår strategi finner energieffektiva kompromisser mellan datakommunikation och beräkning. | Shen m.fl. REF avser en specifik applikationsdigital signalbehandling (DSP) applikation i WSN som definieras som problemet med energidriven partitionering (EDP). | 8,241,416 | Energy-driven distribution of signal processing applications across wireless sensor networks | {'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,016 |
Abstract-The vehicle-to-grid (V2G) system möjliggör energiflöde från elfordon (EV) till elnätet. Den distribuerade effekten hos elfordonen kan antingen säljas till nätet eller användas för att tillhandahålla frekvensregleringstjänst när V2G genomförs. En V2G-styralgoritm är nödvändig för att avgöra om EV ska laddas, släppas ut eller tillhandahålla frekvensregleringstjänst under varje timme. Problemet med V2G-kontrollen kompliceras ytterligare av prisosäkerheten, där elpriset bestäms dynamiskt varje timme. I detta dokument studerar vi problemet med V2G-kontroll i realtid under prisosäkerhet. Vi modellerar elpriset som en Markov-kedja med okända övergångssannolikheter och formulerar problemet som en Markov-beslutsprocess (MDP). Denna modell innehåller en implicit uppskattning av inverkan av framtida elpriser och nuvarande kontrollverksamhet på långsiktiga vinster. Q-lärande algoritmen används sedan för att anpassa kontrollen till timpriset för att maximera vinsten för EV-ägaren under hela parkeringstiden. Vi utvärderar vår föreslagna V2G-kontrollalgoritm med hjälp av både det simulerade priset och det faktiska priset från PJM 2010. Simuleringsresultat visar att vår föreslagna algoritm kan fungera effektivt på den verkliga elmarknaden och att den kan öka vinsten betydligt jämfört med det konventionella avgiftssystemet för elfordon. Fordon-till-grepp-system (V2G) gör det möjligt att leverera energi från de framtida elfordonen till elnätet [1]- [3]. Batterierna i elfordonen i V2G-systemet kan antingen ge ström till elnätet när de parkeras eller ta ström från elnätet för att ladda batterierna. Med V2G-färdigheter har elfordonen en dubbel roll på elmarknaden. Å ena sidan är de energikonsumenter när batterierna laddas. Å andra sidan är de kraftleverantörer när de säljer överskottsenergi från batterierna. Eftersom de flesta fordon parkeras på i genomsnitt 96 % av tiden [4] kan de användas som kraftkälla förutom transport. Varje elfordon har dock en begränsad effektkapacitet (10–20 kW) [2] och de flesta tjänster på elmarknaden utförs på MW-basis [5]. Därför behövs ett mellanliggande system som kallas V2G-aggregator för att samla in den småskaliga effekten från ett stort antal elfordon för att komma in på elmarknaden. Det primära målet för elfordonen när de parkeras är att ladda batterierna före deras nästa avgång. Den konventionella metoden skulle börja ta ut den högsta avgiften när den väl har kopplats in tills det förväntade laddningstillståndet (SOC) har uppnåtts [6]. Med utvecklingen av V2G-tekniken kan storeffektförsäljning och frekvensreglering tillhandahållas via V2G-aggregatorn för att generera intäkter för EV-drivrutinerna. | I REF ) diskuteras dock samma fråga inom ramen för V2G-kontrollen. | 17,735,181 | Real-time vehicle-to-grid control algorithm under price uncertainty | {'venue': '2011 IEEE International Conference on Smart Grid Communications (SmartGridComm)', 'journal': '2011 IEEE International Conference on Smart Grid Communications (SmartGridComm)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,018 |
Abstrakt. Semantisk korrespondens är problemet med att upprätta korrespondenser över bilder som skildrar olika fall av samma objekt eller scenklass. En av de senaste strategierna för detta problem är att uppskatta parametrar för en global omvandlingsmodell som tätt anpassar den ena bilden till den andra. Eftersom en hel korrelationskarta mellan alla funktionspar över bilder vanligtvis används för att förutsäga en sådan global omvandling, bullriga funktioner från olika bakgrunder, skräp och ocklusion distrahera prediktorn från korrekt uppskattning av anpassningen. Detta är särskilt en utmanande fråga när det gäller problemet med semantisk korrespondens, där det ofta är fråga om stora bildvariationer. I detta dokument introducerar vi en uppmärksam semantisk anpassningsmetod som fokuserar på tillförlitliga korrelationer och filtrerar bort distraktorer. För effektiv uppmärksamhet föreslår vi också en offset-medveten korrelationskärna som lär sig att fånga översättningsinvarianta lokala transformationer i beräkning av korrelationsvärden över rumsliga platser. Experiment visar effektiviteten hos den uppmärksamma modellen och offset-aware kärnan, och den föreslagna modellen som kombinerar båda teknikerna uppnår den state-of-the-art prestanda. | Seo m.fl. REF utvidgade denna idé med en offset-medveten korrelationskärna för att fokusera på tillförlitliga korrelationer, filtrera bort distraktorer. | 51,935,212 | Attentive Semantic Alignment with Offset-Aware Correlation Kernels | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,019 |
När skript på otypade språk växer till stora program, blir det svårt att underhålla dem. Brist på typer i typiska skriptspråk innebär att programmerare måste (åter)upptäckta kritiska delar av designinformation varje gång de vill ändra ett program. Denna analys steg både saktar ner underhållsprocessen och kan även införa misstag på grund av överträdelse av oupptäckta varianter. I detta dokument presenteras Typed Scheme, en explicit typad utökning av ett otypat skriptspråk. Dess typsystem är baserat på det nya begreppet händelseskrivning, som vi formaliserar och mekaniskt bevisar ljud. Genomförandet av Typed Scheme lånar dessutom element från en rad olika tillvägagångssätt, inklusive rekursiva typer, verkliga föreningar och subtyping, plus polymorfism kombinerat med en modicum av lokala slutsatser. De första experimenten med genomförandet tyder på att Typed Scheme naturligt tillgodoser programmeringsstilen för det underliggande skriptspråket, åtminstone för de första tusen raderna av porterad kod. Kategorier och ämnesdeskriptorer Nyligen, under rubriken "skriptspråk", har en mängd nya språk blivit populära, och till och med genomträngande, i Weband system-relaterade fält. På grund av sin popularitet skapar programmerare ofta skript som sedan växer till stora applikationer. De flesta skriptspråk är otypade och har en flexibel semantik som gör programmen koncisa. Många programmerare tycker att dessa attribut är tilltalande och använder skriptspråk av dessa skäl. Programmerare börjar dock också märka att otypade skript är svåra att underhålla på lång sikt. Bristen på typer innebär en förlust av designinformation som programmerare måste återvinna varje gång de vill ändra befintlig kod. Både Perl-gemenskapen (Tang 2007) och JavaScript-gemenskapen (ECMA International 2007) erkänner implicit detta problem med tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. POPL'08, 7-12 januari 2008 Under tiden står industrin inför problemet att överföra befintliga tillämpningssystem från otypade skriptspråk till den typade världen. Utifrån vår egen erfarenhet har vi föreslagit en teoretisk modell för denna omvandlingsprocess och visat att partiella omvandlingar kan dra nytta av typsäkerhetsegenskaper i önskad utsträckning (Tobin-Hochstadt och Felleisen 2006). Det viktigaste antagandet bakom vårt arbete är förekomsten av en explicit maskinskriven version av skriptspråket, med samma semantik som originalspråket, så att värden fritt kan flöda fram och tillbaka mellan maskinskrivna och otypade moduler. Med andra ord, vi föreställer oss att programmerare helt enkelt kan lägga till typanteckningar till en modul och därmed införa en viss mängd typ-säkerhet i programmet. Vid första anblicken verkar ett sådant antagande orealistiskt. Programmerare i otypade språk blandar ofta löst och matchar resonemang från olika typer av discipliner när de skriver skript. Ännu värre, en kontroll av kod tyder på att de också inkluderar flödesorienterade resonemang, särskilja typer för variabler beroende på tidigare operationer. Kort sagt, otypade skriptspråk tillåter program som verkar svåra att typkolla med befintliga typsystem. För att visa genomförbarheten av vårt tillvägagångssätt har vi utformat och genomfört Typed Scheme, en explicit typad version av PLT Scheme. Vi har valt PLT Scheme av två skäl. Å ena sidan används PLT Scheme som ett skriptspråk av ett stort antal användare. Det kommer också med en stor mängd kod, med bidrag som sträcker sig från skript till bibliotek till stora operativsystem som program. Å andra sidan kommer språket med makron, en kraftfull förlängningsmekanism (Flatt 2002). Makros sätter en betydande begränsning på utformningen och genomförandet av Typed Scheme, eftersom stödjande makron kräver typkontroll av ett språk med en användardefinierad uppsättning syntaktiska former. Vi kan övervinna denna svårighet genom att integrera typkontrollen med makroexpandern. Detta tillvägagångssätt underlättar i själva verket i hög grad integrationen av maskinskrivna och otypade moduler. Som föreställt (Tobin-Hochstadt och Felleisen 2006), denna integration gör det enkelt att förvandla delar av en multi-modul program till en delvis skrivbar men ändå körbara program. Här rapporterar vi om det nya typsystemet, som kombinerar idén om händelseskrivning med subtypning, rekursiva typer, polymorfism och en modicum av inferens. Vi presenterar först en formell modell av de viktigaste aspekterna av händelseskrivning och bevisar att det är typ-ljud. Senare beskriver vi hur man ska skala denna kalkyl till en fullfjädrad, maskinskriven version av PLT Scheme och hur man ska genomföra den. Slutligen ger vi en redogörelse för vår preliminära erfarenhet och lägger till typer till tusentals rader otypade Scheme kod. Våra experiment verkar lovande och tyder på att det är möjligt att omvandla oskrivna skript till välskrivna program. 395 Ordförande | Tobin-Hochstadt och Felleisen utvecklade begreppet händelsetypning och genomförde ett Typed Scheme Ref. | 2,024,758 | The design and implementation of typed scheme | {'venue': "POPL '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,020 |
Abstract-Providing effektiv dataaggregation samtidigt bevara dataintegritet är ett utmanande problem i trådlösa sensornätverk forskning. I detta dokument presenterar vi två integritetsbevarande system för aggregering av data för additiva aggregeringsfunktioner. Det första systemet -Cluster-baserad Privat Data Aggregation (CPDA)-levererar klustering protokoll och algebraiska egenskaper polynom. Det har fördelen att medföra mindre kommunikation overhead. Det andra systemet – Slice-Mix-AggRegaTe (SMART) – bygger på skivteknik och den associativa egenskapen hos tillägg. Det har fördelen av att ådra sig mindre beräkning overhead. Målet med vårt arbete är att överbrygga klyftan mellan samverkande datainsamlingar via trådlösa sensornätverk och dataintegritet. Vi bedömer de två systemen genom integritet-bevarande effektivitet, kommunikation overhead, och data aggregering noggrannhet. Vi presenterar simuleringsresultat från våra system och jämför deras prestanda med ett typiskt dataaggregationssystem -TAG, där inget dataskydd tillhandahålls. Resultaten visar effektiviteten och effektiviteten i våra program. Såvitt vi vet är detta papper bland de första om integritetsbevarande dataaggregation i trådlösa sensornätverk. | Sekretessbevarande dataaggregation (PDA) system som presenteras av He et al. I REF består två system: klusterbaserad privat dataaggregation (CPDA) och SMART. | 10,398,325 | PDA: Privacy-Preserving Data Aggregation in Wireless Sensor Networks | {'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 6,021 |
NLP uppgifter skiljer sig åt i den semantiska information de behöver, och vid denna tidpunkt ingen enda semantisk representation uppfyller alla krav. Logikbaserade representationer kännetecknar meningsstruktur, men fångar inte den graderade aspekten av mening. Distributionsmodeller ger graderade likhetsbetyg för ord och fraser, men fångar inte meningsstruktur i samma detalj som logikbaserade metoder. Det har därför hävdats att dessa två kompletterar varandra. Vi använder en hybridmetod som kombinerar logiska och distributionella semantik med probabilistisk logik, särskilt Markov Logic Networks. I denna artikel fokuserar vi på de tre komponenterna i ett praktiskt system: 1 1) Logisk representation fokuserar på att representera indataproblemen i probabilistisk logik; 2) kunskapsbaskonstruktion skapar viktade inferensregler genom att integrera distributionsinformation med andra källor; och 3) probabilistisk inferens innebär att lösa de resulterande MLN inferenceproblemen effektivt. För att utvärdera vårt tillvägagångssätt använder vi oss av uppgiften textförmedling, som kan utnyttja styrkan i både logiska och fördelningsmässiga representationer. I synnerhet fokuserar vi på SICK-data, där vi uppnår toppmoderna resultat. Vi släpper också en lexical conduration data uppsättning 10.213 regler som extraheras från SICK datauppsättningen, som är en värdefull resurs för att utvärdera lexical conduration systems. | REF använder Markov Logic Networks (MLN), som är ett elegant ramverk som kombinerar logik och probabilistiskt resonemang. | 9,707,387 | Representing Meaning with a Combination of Logical and Distributional Models | {'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 6,022 |
I detta dokument behandlas det viktiga problemet med att urskilja hatfullt innehåll i sociala medier. Vi föreslår ett spårningssystem som är en ensemble av klassificerare för Recurrent Neural Network (RNN), och det innehåller olika funktioner som förknippas med användarrelaterad information, såsom användarnas tendens till rasism eller sexism. Dessa data matas som indata till de ovannämnda klassificeringarna tillsammans med de ordfrekvensvektorer som härletts från textinnehållet. Vårt tillvägagångssätt har utvärderats på en offentligt tillgänglig corpus av 16k tweets, och resultaten visar dess effektivitet i jämförelse med befintliga toppmoderna lösningar. Mer specifikt, vår plan kan framgångsrikt skilja rasism och sexism meddelanden från normal text, och uppnå högre klassifikation kvalitet än nuvarande state-of-the-art algoritmer. | REF använde ensemblen av återkommande neurala nätverk (RNN) klassificerare och införlivade olika funktioner i samband med användarrelaterad information. | 12,985,409 | Detecting Offensive Language in Tweets Using Deep Learning | {'venue': 'Applied Intelligence, 48(12), 4730-4742 (2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,023 |
Abstrakt. Topologiigenkänning är en av de grundläggande distribuerade uppgifterna i nätverken. Varje nod i ett anonymt nätverk måste deterministiskt producera en isomorf kopia av den underliggande grafen, med alla portar korrekt markerade. Denna uppgift är vanligtvis ogenomförbar utan någon föregående information. Sådan information kan lämnas till noderna som råd. Ett orakel som känner nätverket kan ge en (eventuellt annorlunda) sträng av bitar till varje nod, och alla noder måste rekonstruera nätverket med hjälp av detta råd, efter ett givet antal rundor av kommunikation. Under varje runda kan varje nod utbyta godtyckliga meddelanden med alla sina grannar och utföra godtyckliga lokala beräkningar. Tiden för att slutföra topologi erkännande är antalet rundor det tar, och storleken på råd är den maximala längden på en sträng ges till noder. Vi undersöker kompromisser mellan den tid då topologiigenkänning uppnås och den minsta storleken på råd som måste ges till noder. Vi tillhandahåller övre och nedre gränser på minsta storlek av råd som är tillräckligt för att utföra topologiigenkänning under en given tid, i klassen av alla grafer av storlek n och diameter D ≤ αn, för varje konstant α < 1. I de flesta fall är våra gränser asymptotiskt snäva. Närmare bestämt, om den tilldelade tiden är D − k, där 0 < k ≤ D, då är den optimala storleken på rådgivningen och (n 2 log n)/(D − k + 1)). Om den tilldelade tiden är D, då är den här optimala storleken till (n log n). Om den tilldelade tiden är D + k, där 0 < k ≤ D/2, då är den optimala storleken på rådgivningen. (1 + (log n) / k). Den enda återstående klyftan mellan våra gränser är för tid D + k, där D/2 < k ≤ D. I detta tidsintervall förblir vår övre gräns O (1 + (log n) / k), medan den nedre gränsen (som håller för varje tid) är 1. Detta lämnar en lucka om D och o(log n). Slutligen visar vi att för tid 2D + 1, en bit av råd är både nödvändigt och tillräckligt. Våra resultat visar hur känslig den minsta storleken av råd för den tid som medges för topologi erkännande: tillåter bara en runda mer, från D till D + 1, minskar exponentiellt de råd som behövs för att utföra denna uppgift. | I REF studerade författarna problemet med topologiigenkänning med råd som gavs till noder. | 17,424,492 | Use knowledge to learn faster: Topology recognition with advice ⋆ | {'venue': 'DISC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,024 |
I detta dokument presenterar vi en modell för prognostisering av kortfristig elektrisk belastning baserad på djupa kvarvarande nät. Den föreslagna modellen kan integrera domänkunskap och forskares förståelse av uppgiften genom olika neurala nätverksbyggstenar. Särskilt formuleras ett modifierat nätverk för djupa restprodukter för att förbättra de prognostiserade resultaten. Vidare används en ensemblestrategi i två steg för att förbättra den föreslagna modellens generaliseringsförmåga. Vi tillämpar även den föreslagna modellen på probabilistiska belastningsprognoser med hjälp av Monte Carlo dropout. Tre offentliga datauppsättningar används för att visa hur effektiv den föreslagna modellen är. Flera testfall och jämförelse med befintliga modeller visar att den föreslagna modellen ger exakta belastningsprognoser resultat och har hög generaliseringsförmåga. Index Terms-Short-term belastningsprognoser, djupt lärande, djupa kvarvarande nätverk, probabilistisk belastningsprognoser. | Chen och Al. sträva efter att integrera domänkunskap i olika neurala nätverksbyggstenar i REF. | 44,116,467 | Short-Term Load Forecasting With Deep Residual Networks | {'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']} | 6,025 |
Abstract-Eye blinka upptäckt har fått en hel del intresse under de senaste åren inom området mänsklig datorinteraktion (HCI). Forskning bedrivs över hela världen för att utveckla nya naturliga användargränssnitt (NUI) som använder ögonblixtar som en ingång. I detta dokument presenteras en jämförelse mellan fem icke-inträngande metoder för att upptäcka ögonblinker för bilder med låg upplösning med hjälp av olika funktioner som medelintensitet, Fisher-ansikten och histogram av orientaliserade gradienter (HOG) och klassifiatorer som Support Vector Machines (SVM) och Artificial neural network (ANN). En jämförande studie utförs genom att variera antalet träningsbilder och i okontrollerade ljusförhållanden med lågupplösta ögonbilder. Resultaten visar att HOG-funktioner i kombination med SVM-klassificering överträffar alla andra metoder med en noggrannhet på 85,62% när de testas på bilder tagna från en helt okänd datauppsättning. | I REF föreslogs en metod för detektering av ögonblink baserat på Histogram of Oriented Gradients features, kombinerat med SVM classifier. | 126,019,480 | Non Intrusive Eye Blink Detection from Low Resolution Images Using HOG-SVM Classifier | {'venue': None, 'journal': 'International Journal of Image, Graphics and Signal Processing', 'mag_field_of_study': ['Mathematics']} | 6,026 |
En stokastisk modell baserad på insikter om Mandelbrot (1953) och Simon (1955) diskuteras mot bakgrund av nya kriterier för tillräcklighet som har blivit tillgängliga nyligen som ett resultat av studier av likheten mellan ord som finns i stora datoriserade textkorpora. Olika modeller för ordfrekvensfördelningar har utvecklats sedan Ziff (1935) tillämpade zeta-distributionen för att beskriva ett brett spektrum av lexiska data. Mandelbrot (1953 Mandelbrot (, 1962 )utökade Ziffs distribution "lag" | Baayen REF studerade likheter mellan ord och ordfrekvensfördelning. | 2,032,165 | A Stochastic Process For Word Frequency Distributions | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,027 |
Som en del av projektet i2b2 (Informatics for Integrating Biology to the Bedside) organiserade författarna en utmaning för naturlig språkbehandling (NLP) om att automatiskt ta bort privat hälsoinformation (PHI) från journaler över medicinska utsläpp. Detta manuskript ger en översikt över denna "avidentifierande utmaning", beskriver data och notationsprocessen, förklarar utvärderingsmåtten, diskuterar arten av de system som hanterade utmaningen och analyserar resultaten av mottagna systemkörningar. Utmaningsuppgifterna bestod av utskrivningssammanfattningar hämtade från Partners Healthcare-systemet. Författare förberedde dessa data för utmaningen genom att ersätta äkta PHI med syntetiserade surrogat. För att fokusera utmaningen på icke-ordboksbaserade avidentifierande metoder berikades data med out-of-vokabulary PHI surrogates, d.v.s. påhittade namn. Uppgifterna inkluderade också några PHI surrogat som var tvetydiga med medicinska icke-PHI termer. Totalt sju lag deltog i utmaningen. Varje lag lämnade in upp till tre system körs, för totalt sexton bidrag. Författarna använde precision, återkallande och F-åtgärd för att utvärdera det inlämnade systemet körs baserat på deras token-nivå och instans-nivå prestanda på marken sanningen. System med den bästa prestandan poängsatt över 98 % i F-mått för alla kategorier av identifierare. De flesta ut-av-vokabulära PHI kunde identifieras exakt. Att identifiera tvetydiga PHI visade sig dock vara en utmaning. Systemens prestanda på testdatamängden är uppmuntrande. Framtida utvärderingar av dessa system kommer att omfatta större datamängder från mer heterogena källor. | REF I denna workshop utvärderades systemen med hjälp av tre prestandamått: precision, återkallande och f-mätning. | 8,746,850 | Evaluating the State-ofthe-Art in Automatic De-identification | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,028 |
Att registrera platsen för människor som använder lokaliserings-förvärv teknik, såsom GPS, gör det möjligt att generera livsmönster, som associerar människor till platser som de ofta besöker. Med tanke på livsmönster som kanter som förbinder användare av ett socialt nätverk med geografiska enheter på ett rumsligt nätverk, berikar det sociala nätverket, vilket ger en integrerad sociospatial graf. Frågar om sådan graf extrahera information om användare, i korrespondens med deras lokaliseringshistorik, och extrahera information om geografiska enheter i korrespondens med användare som ofta besöker dessa enheter. I detta dokument presenterar vi konceptet med en socio-spatial graf som bygger på livsmönster, där användare är anslutna till geografiska enheter med livsmönster kanter. Vi tillhandahåller en uppsättning operatörer som utgör ett sökspråk som lämpar sig för de integrerade uppgifterna. Vi betraktar två implementeringar av en socio-spatial graf lagring-ett genomförande använder ett relationsdatabassystem som understrykning datalagring, och den andra använder ett diagram databassystem. De två implementeringarna jämförs experimentellt för olika frågor och data. Ett viktigt bidrag till detta arbete är att illustrera nyttan och genomförbarheten av att upprätthålla och ifrågasätta integrerade socio-spatiala diagram. | Y. Doytsher, m.fl. REF föreslår en sociospatial grafmodell och inför ett frågespråk som bildas av en uppsättning sociospatiala aktörer. | 18,085,438 | Querying geo-social data by bridging spatial networks and social networks | {'venue': "LBSN '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,029 |
Abstract-Recently, begreppet barriärtäckning av trådlösa sensornätverk har införts för olika civila och militära försvarstillämpningar. I detta papper studeras problemet med hur man organiserar hybridsensornätverk, som består av ett antal energibärare marksensorer med homogen initial batterinivå och energirika mobila sensorer, för att maximera livslängden för barriärtäckning. Två viktiga observationer är (a) eftersom livslängden för varje mobil sensor är mycket längre än för de statiska marksensorerna, varje mobil sensor kan bidra med flera sensorbarriärformationer, och (b) ingen mobil sensornod kan förena två hybridbarriärer som successivt kommer att användas för att kontinuerligt skydda området av intresse på grund av den rörliga fördröjningen. Baserat på dessa introducerar vi ett nytt problem med maximal livslängd för barriärtäckning i hybridsensornätverk. Vi föreslår först en enkel heuristisk algoritm genom att kombinera befintliga idéer tillsammans med våra egna. Sedan utformar vi en annan effektiv algoritm för problemet och bevisar att livslängden på hybridbarriären som konstruerats av denna algoritm är minst tre gånger större än den befintliga i genomsnitt. Vårt simuleringsresultat visar att den andra algoritmen överträffar den första algoritmen på minst 33 procent och upp till 100 procent. | I Kim et al. föreslog författarna först en enkel heuristisk algoritm. | 19,130,339 | Maximum Lifetime Combined Barrier-Coverage of Weak Static Sensors and Strong Mobile Sensors | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 6,030 |
Säkerhet håller på att bli den främsta angelägenheten i dagens inbyggda system. Nätverk-on-Chip (NoC)-baserade kommunikationsarkitekturer har framträtt som ett alternativ till delad bussmekanism i multi-core SoC-enheter och det ökande antalet och funktionaliteten hos processkärnor har gjort sådana system sårbara för säkerhetsattacker. I detta dokument har en säker kommunikationsarkitektur presenterats genom att utforma en säkerhetsmodul för identitets- och adressverifiering (IAV), som är inbäddad i varje router på kommunikationsnivå. IAV-modulen verifierar identitet och adressområde som ska nås av inkommande och utgående datapaket i en multikärnig delad minnesarkitektur baserad på NoC. Vår IAV modul är implementerad på en FPGA-enhet för funktionell verifiering och utvärderas i termer av dess område och strömförbrukning overhead. För FPGA-baserade system kan IAV-modulen konfigureras om vid körning genom partiell omkonfigurering. Dessutom utförs en cykelaccelererad simulering för att analysera prestandan och den totala nätenergiförbrukningen för olika nätkonfigurationer. Den föreslagna IAV-modulen har visat på minskad yt- och strömförbrukning jämfört med liknande befintliga lösningar. | I vårt tidigare arbete REF har vi presenterat en identitets- och adressverifieringsbaserad säkerhetsmodul för flerkärniga system för att upptäcka säkerhetsattacker och stoppa olaglig åtkomst till minnet. | 3,922,052 | Secure On-Chip Communication Architecture for Reconfigurable Multi-Core Systems | {'venue': 'Journal of Circuits, Systems, and Computers', 'journal': 'Journal of Circuits, Systems, and Computers', 'mag_field_of_study': ['Computer Science']} | 6,031 |
Många signal- eller dataöverföringsverksamheter omfattar sändning av paket, som drabbas av betydande kollisioner i ad hoc-nätverk som bygger på ett diskussionsbaserat protokoll för kanalåtkomst. Vi föreslår Threehop Horizon Pruning (THP) algoritm för att beräkna två-hop anslutna dominerande set (TCDS) med endast lokal topologi information (dvs två-hop grannskap). Eftersom varje nod har två-hop område information, är det möjligt att upprätthålla nya vägar till alla noder inom två humle. I denna situation är en TCDS idealisk för spridning av ruttförfrågningar (RREQ) meddelanden i rutt upptäcktsprocessen för routing protokoll on-demand. THP visas vara effektivare än alla tidigare distribuerade sändningsmekanismer, när en TCDS föredras framför en ansluten dominerande uppsättning (CDS). Liksom alla andra algoritmer som är beroende av lokal topologiinformation är THP inte tillförlitlig när topologin ändras ofta, och det finns en tydlig avvägning mellan tillförlitlighet och effektivitet. Vi beskriver och analyserar två förbättringar till THP som tar itu med bristen på tillförlitlighet av granninformation. Först antar vi ett virtuellt radioområde (VR), kortare än det fysiska radioområdet (RR), och betraktar som en-hop grannar endast de noder inom VR (vi använder inte två olika radioområden, som i tidigare arbete, eftersom det kan medföra ytterligare störningar). Klyftan mellan VR och RR fungerar som en buffertzon, där noder kan röra sig utan att förlora anslutningsmöjligheter. För det andra analyseras skotarlistan i paketrubriken tillsammans med aktuell information om området. Baserat på detta kan en nod besluta att sända paketet även om det inte har valts ut som skotare. Vi utför omfattande simuleringar och visar att AODV-THP med dessa två förbättringar uppnår bättre prestanda än AODV när det gäller leveransförhållande, kontroll overhead, paketkollisioner och end-to-end fördröjning. | REF föreslog en tre-hop Horizon Pruning (THP) algoritm för att beräkna två-hop anslutna dominerande uppsättning (TCDS) med endast lokal topologi information (dvs. 2-hop granne) som är idealisk för spridning av RREQ meddelande i rutt upptäckt process on-demand routing protokoll. | 12,062,363 | Improving Route Discovery in On-Demand Routing Protocols Using Two-Hop Connected Dominating Sets | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,032 |
Abstract-Mobile edge computing (även känd som dimma computing) har nyligen dykt upp för att möjliggöra in-situ behandling av fördröjningskänsliga applikationer i utkanten av mobila nätverk. Det är dock dyrt och till och med ogenomförbart (i vissa stryktåliga eller underutvecklade områden) att tillhandahålla nätaggregat till stöd för mobila datortjänster, vilket innebär att förnybar energi på plats blir en stor eller till och med en enda strömförsörjning i allt fler scenarier. Icke desto mindre gör den höga intermittensen och oförutsägbarheten hos förnybar energi det mycket svårt att leverera en hög servicekvalitet till användare i energiskördande mobila datorsystem. I detta dokument tar vi itu med utmaningen att integrera förnybara energikällor i den mobila kantdatorn och föreslår en effektiv förstärkning av inlärningsbaserad resurshanteringsalgoritm, som lär sig i farten den optimala politiken för dynamisk avlastning av arbetsbelastning (till det centraliserade molnet) och kantserver för att minimera den långsiktiga systemkostnaden (inklusive både servicefördröjning och driftskostnad). Vår online-lärande algoritm använder en nedbrytning av (offline) värde iteration och (online) förstärkning lärande, vilket uppnår en betydande förbättring av inlärningsfrekvens och körtid prestanda jämfört med standard förstärkning lärande algoritmer som Q-lärande. Vi bevisar konvergensen av den föreslagna algoritmen och visar analytiskt att den inlärda politiken har en enkel monoton struktur som är mottaglig för praktiskt genomförande. Våra simuleringsresultat validerar effektiviteten hos vår algoritm, vilket avsevärt förbättrar prestandan i kantdata jämfört med fasta eller myopiska optimeringssystem och konventionella förstärkande inlärningsalgoritmer. | I REF föreslås i synnerhet en effektiv förstärkning av inlärningsbaserad algoritm för att minimera den långsiktiga beräkningsuppgiftens avlastningskostnader (inklusive både servicefördröjning och 2 | 18,453,286 | Online Learning for Offloading and Autoscaling in Energy Harvesting Mobile Edge Computing | {'venue': 'IEEE Transactions on Cognitive Communications and Networking', 'journal': 'IEEE Transactions on Cognitive Communications and Networking', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,033 |
Vi föreslår en metod för att använda poängvärdena för passager för att effektivt hämta dokument i ett frågesvarssystem. För detta föreslår vi utvärderingsfunktion som tar hänsyn till närhet mellan varje fråga termer i passage. Och med hjälp av denna utvärdering funktion, Vi extraherar ett dokument som innebär poängsättning värden i den högsta samlingen, som ett lämpligt dokument för frågor. Den föreslagna metoden är mycket effektiv när det gäller att hämta dokument från det koreanska systemet för svar på frågor. | Jong Ref föreslog ett tillvägagångssätt som innebar att man övervägde hur många avsnitt som genererats från en utvärderingsfunktion för att effektivt hämta dokument i ett frågesvarssystem. | 27,355,808 | A Method of Passage-Based Document Retrieval in Question Answering System | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,034 |
Från sociala nätverk till P2P-system uppstår nätverksprovtagning i många miljöer. Vi presenterar en detaljerad studie om vilken typ av partiskhet som finns i nätverksprovtagningsstrategier för att belysa hur man bäst kan ta prover från nätverk. Vi undersöker kopplingar mellan specifika förutfattade meningar och olika mått på strukturell representativitet. Vi visar att vissa förutfattade meningar i själva verket är till nytta för många tillämpningar, eftersom de "push" provtagningsprocessen mot att inkludera önskade egenskaper. Slutligen beskriver vi hur dessa provtagningsfördomar kan utnyttjas i flera, verkliga tillämpningar, inklusive upptäckt av sjukdomsutbrott och marknadsundersökningar. | REF jämför olika traversala algoritmer och definierar representativiteten hos ett prov samtidigt som man föreslår hur provtagningsprocessen ska vägledas mot att inkludera önskade egenskaper. | 360,123 | Benefits of Bias: Towards Better Characterization of Network Sampling | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 6,035 |
Abstract-This paper fokuserar på interaktion och integration av flera kritiska komponenter i ett mobilt ad-hoc-nätverk (MANET) med hjälp av smarta antennsystem. Ett MANET är ett trådlöst nätverk där de kommunicerande noderna är mobila och nätverkets topologi ständigt förändras. En av de centrala motiven för detta arbete kommer från det observerade beroendet av det totala nätverket genomströmning på utformningen av adaptiv antennsystem och dess underliggande signalbehandlingsalgoritmer. Ett viktigt syfte med detta arbete är i själva verket att studera och dokumentera nätverkets övergripande effektivitet när det gäller antennmönstret och längden på den träningssekvens som används av de strålformande algoritmerna. I denna studie behandlas också i tillräcklig detalj problem med valet av riktning för ankomstalgoritm och prestanda för adaptiv strålformare i närvaro av antennkopplingseffekter. Dessutom presenteras strategier och algoritmer för att bekämpa effekterna av blekningskanaler på det övergripande systemet. | Ett av de tidigaste verken på smarta antennapplikationer i ad hoc-nätverk har presenterats i REF. | 2,302,980 | Smart Antenna System Analysis , Integration and Performance for Mobile Ad-Hoc Networks ( MANETs ) | {'venue': 'ICW/ICHSN/ICMCS/SENET', 'journal': None, 'mag_field_of_study': ['Physics']} | 6,036 |
När du ställs inför behovet av dokumentation, exempel, buggfixar, felbeskrivningar, kodslippar, lösningar, mallar, mönster eller råd vänder du dig ofta till din webbläsare. Webbresurser både organiserade och auktoritativa samt informella och communitydrivna används i stor utsträckning av utvecklare. Den tid och uppmärksamhet som ägnas åt att hitta (eller hitta) och navigera dessa platser är betydande. Vi presenterar Codetrail, ett system som visar hur utvecklarens användning av webbresurser kan förbättras genom att ansluta Eclipse IDE och Firefox webbläsare. Codetrail använder en kommunikationskanal och en gemensam datamodell mellan dessa applikationer för att implementera en mängd olika integrativa verktyg. Genom att kombinera information som tidigare varit tillgänglig endast för IDE eller webbläsaren ensam (såsom redigeringshistorik, kodinnehåll och ny surfning), Codetrail kan automatisera tidigare manuella uppgifter och möjliggöra nya interaktioner som utnyttjar äktenskapet av data och funktionalitet från Firefox och Eclipse. Precis som IDE kommer att ändra innehållet i perifera vyer för att fokusera på den specifika kod eller uppgift som utvecklaren är engagerad i, så kan också webbläsaren fokuseras på utvecklarens nuvarande sammanhang och uppgift. | Goldman och Miller REF utvecklade verktyget CodeTrail, som visar hur utvecklarens användning av webbresurser kan förbättras genom att ansluta Eclipse integrerade utvecklingsmiljö (IDE) och Firefox webbläsare. | 15,475,288 | Codetrail: Connecting source code and web resources | {'venue': 'Journal of Visual Languages & Computing', 'journal': 'Journal of Visual Languages & Computing', 'mag_field_of_study': ['Computer Science']} | 6,037 |
Abstract-Cluster beräkning har vuxit fram som en primär och kostnadseffektiv plattform för att köra parallella applikationer, inklusive kommunikationsintensiva applikationer som överför en stor mängd data bland noderna i ett kluster via sammanlänkningsnätet. Konventionella lastbalansörer har visat sig vara effektiva för att öka användningen av CPU, minne och disk I/O resurser i ett kluster. De flesta av de befintliga systemen för lastbalansering bortser dock från nätresurserna, vilket ger en möjlighet att förbättra den effektiva bandbredden för nät i kluster som kör parallella tillämpningar. Därför föreslår vi en kommunikationsmedveten lastbalanseringsteknik som kan förbättra prestandan hos kommunikationsintensiva tillämpningar genom att öka det effektiva utnyttjandet av nätverk i klustermiljöer. För att underlätta den föreslagna belastningsbalanseringsschemat, introducerar vi en beteendemodell för parallella applikationer med stora krav på nätverk, CPU, minne, och disk I / O resurser. Vårt lastbalanseringssystem kan göra fullt bruk av denna modell för att snabbt och exakt bestämma den belastning som induceras av en mängd parallella applikationer. Simuleringsresultat genererade från en mängd synkrona synkrona och reella parallella applikationer i syntetisk bulk på ett kluster visar att vårt system avsevärt förbättrar prestandan, i form av avmattning och turn-around-tid, över befintliga system med upp till 206 procent (med ett genomsnitt på 74 procent) respektive 235 procent (med ett genomsnitt på 82 procent). | I Ref föreslås en kommunikationsmedveten lastbalanseringsmetod för att förbättra prestandan hos kommunikationsintensiva tillämpningar genom att öka det effektiva utnyttjandet av nätverk i klustermiljöer. | 3,055,458 | Communication-Aware Load Balancing for Parallel Applications on Clusters | {'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 6,039 |
Gatys m.fl. nyligen infört en neural algoritm som gör en innehållsbild i stil med en annan bild, uppnå så kallad stil överföring. Deras ramverk kräver dock en långsam iterativ optimeringsprocess, som begränsar dess praktiska tillämpning. Snabb approximationer med feed-forward neurala nätverk har föreslagits för att påskynda neural stil överföring. Tyvärr kommer hastighetsförbättringen till en kostnad: nätverket är vanligtvis knuten till en fast uppsättning stilar och kan inte anpassa sig till godtyckliga nya stilar. I detta dokument presenterar vi en enkel men effektiv strategi som för första gången möjliggör godtyckliga stilöverföringar i realtid. I hjärtat av vår metod är en ny adaptiv instans normalisering (AdaIN) skikt som anpassar medelvärdet och variansen av innehållsfunktioner till de av stilfunktionerna. Vår metod uppnår hastighet jämförbar med den snabbaste befintliga metoden, utan begränsning till en fördefinierad uppsättning stilar. Dessutom tillåter vår strategi flexibla användarkontroller såsom innehåll-stil kompromiss, stil interpolation, färg och rumsliga kontroller, alla med hjälp av en enda feed-forward neurala nätverk. | En ny adaptiv instans normalisering (AdaIn) lager REF, som helt enkelt justerar medelvärdet och variansen av innehållet ingång för att matcha stilen på en annan ingång, kan göra godtycklig stil överföring i realtid. | 6,576,859 | Arbitrary Style Transfer in Real-Time with Adaptive Instance Normalization | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 6,040 |
Bluetooth är en populär trådlös kommunikationsteknik som finns tillgänglig på de flesta mobila enheter. Även om Bluetooth inkluderar säkerhet och integritet bevara mekanismer, visar vi att en Bluetooth ofarlig inneboende begäran-respons mekanism kan förorena användarnas integritet. Mer specifikt introducerar vi en timing attack som kan utlösas av en fjärrangripare för att dra slutsatsen information om en Bluetooth-enhet tillstånd. Genom att observera variationer i tiden för L2CAP-skiktets pingmekanism är det möjligt att upptäcka förändringar i enhetens tillstånd, till exempel när enheten går in eller ut ur det låsta tillståndet. Våra experimentella resultat visar att förändringspunktsdetektionsanalys av timingen gör det möjligt att upptäcka förändringar i enhetens tillstånd med hög noggrannhet. Slutligen diskuterar vi ansökningar och motåtgärder. • Säkerhet och integritet → Mobil och trådlös säkerhet; • Nätverk → Nätverksintegritet och anonymitet; | En aktiv attack för att sluta tillstånd förändringar av en Bluetooth-enhet visas i REF. | 49,562,744 | Detecting smartphone state changes through a Bluetooth based timing attack | {'venue': "WiSec '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,041 |
När mobilen börjar köra om den fasta Internetanslutningen, har annonsnätverk aggressivt sökt metoder för att spåra användare på sina mobila enheter. Medan befintliga motåtgärder och reglering fokuserar på att motverka cookies och olika enhets-ID, detta dokument lämnar en hypotes om att smartphone / surfplatta accelerometrar har unika fingeravtryck, som kan utnyttjas för att spåra användare. Vi tror att fingeravtrycken härrör från hårdvarubrister under sensortillverkningsprocessen, vilket får varje sensorchip att reagera annorlunda på samma rörelsestimulans. Skillnaderna i svar är subtila nog att de inte påverkar de flesta av de högre nivå funktioner som beräknas på dem. Vid en noggrann inspektion framträder dock dessa fingeravtryck med konsekvens och kan till och med vara något oberoende av den stimulans som ger dem. Mätningar och klassificering på 80 fristående accelerometerchips, 25 Android-telefoner och 2 surfplattor, visa precision och återkalla uppåt 96%, tillsammans med god robusthet till verkliga förhållanden. Använda accelerometer fingeravtryck, en crowdsourcing program som körs i molnet kunde separera sensordata för varje enhet, vilket gör det enkelt att spåra en användare över utrymme och tid. Sådana attacker är nästan triviala att inleda, medan enkla lösningar kanske inte är tillräckliga för att motverka dem. | En mekanism föreslogs av REF att smartphone accelerometrar har unika fingeravtryck, som kan användas för att spåra användare. | 2,965,604 | AccelPrint: Imperfections of Accelerometers Make Smartphones Trackable | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,042 |
I detta dokument presenteras en process för beräkning av däck-väg krafter, fordonets sidoslip vinkel och hjul kurvtagning styvhet. Metoden använder mätningar (såghastighet, längsgående/laterala accelerationer, styrvinkel och vinkelhjulets hastighet) endast från sensorer som kan integreras eller redan har integrerats i moderna bilar. Uppskattningsprocessen är baserad på två block i serie: det första blocket innehåller en glidlägesobservatör vars huvudsakliga roll är att beräkna däck-väg krafter, medan i det andra blocket ett utökat Kalman filter uppskattar sidolip vinkel och kurvtagning styvhet. Mer specifikt föreslås i denna studie en adaptiv däckkraftsmodell som tar hänsyn till variationer i väg friktion. I dokumentet presenteras också en studie av konvergensen för observatören i glidläge. Uppskattningsprocessen tillämpades och jämfördes med verkliga experimentella data, särskilt mätningar av hjulkraft. Experimentella resultat visar noggrannheten och potentialen i estimeringsprocessen. | I Ref, till exempel, är uppskattningsprocessen uppdelad i två steg. | 45,198,123 | Estimation of vehicle sideslip, tire force and wheel cornering stiffness | {'venue': None, 'journal': 'Control Engineering Practice', 'mag_field_of_study': ['Engineering']} | 6,043 |
Sekretessbevarande frigörande av komplexa data (t.ex. bild, text, ljud) utgör en långvarig utmaning för forskarsamhället inom datautvinning. På grund av rik semantik av data och brist på en förkunskaper om analysuppgiften, överdriven sanitering är ofta nödvändigt för att säkerställa integritet, vilket leder till betydande förlust av dataverktyget. I detta dokument presenterar vi dp-GAN, en allmän privat releaseram för semantiska-rika data. I stället för att sanitera och sedan släppa data, publicerar dataintendenten en djup generativ modell som utbildas med hjälp av originaldata på ett differentialt privat sätt; med den generativa modellen, kan analytikern producera en obegränsad mängd syntetiska data för godtyckliga analysuppgifter. I motsats till alternativa lösningar belyser dp-GAN en uppsättning nyckelfunktioner: i) det ger teoretisk integritetsgaranti genom att tillämpa principen om differentialintegritet; ii) det behåller önskvärd nytta i den frigjorda modellen, vilket möjliggör en mängd annars omöjliga analyser; och iii) viktigast av allt, det uppnår praktisk utbildning skalbarhet och stabilitet genom att använda flerfaldiga optimeringsstrategier. Genom omfattande empirisk utvärdering av referensdata och analyser validerar vi effekten av dp-GAN. | Vi använder oss av den dp-GAN-ram som utvecklats av REF, med vissa ändringar, för att producera våra generativa modeller. | 85,483,035 | Differentially Private Releasing via Deep Generative Model | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,044 |
Att lära sig målinriktat beteende i miljöer med gles feedback är en stor utmaning för att förstärka inlärningsalgoritmer. Den primära svårigheten uppstår på grund av otillräcklig undersökning, vilket resulterar i att en agent inte kan lära sig robusta värdefunktioner. Intrinsiskt motiverade agenter kan utforska nytt beteende för sin egen skull snarare än att direkt lösa problem. Sådana inneboende beteenden kan så småningom hjälpa agenten att lösa de uppgifter som miljön utgör. Vi presenterar hierarkisk-DQN (h-DQN), ett ramverk för att integrera hierarkiska värdefunktioner, som fungerar på olika temporalskalor, med egenmotiverat djupt förstärkande lärande. En högvärdig funktion lär sig en politik över inneboende mål, och en lägre nivå funktion lär sig en politik över atomiska åtgärder för att uppfylla de givna målen. h-DQN möjliggör flexibla målspecifikationer, t.ex. funktioner över enheter och relationer. Detta ger ett effektivt utrymme för prospektering i komplicerade miljöer. Vi visar styrkan i vår strategi på två problem med mycket gles, fördröjd feedback: (1) en komplex diskret stokastisk beslutsprocess, och (2) den klassiska ATARI-spelet 'Montezuma's Revenge'. | Exempelvis föreslår författarna i REF en utvidgning av ramen för djupgående Q-Learning för att integrera hierarkiska värdefunktioner med hjälp av inneboende motivation för att lära sig alternativpolitiken. | 4,669,377 | Hierarchical Deep Reinforcement Learning: Integrating Temporal Abstraction and Intrinsic Motivation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,045 |
Med tanke på två på varandra följande ramar från ett par stereokameror, 3D scenflöde metoder samtidigt uppskatta 3D geometri och rörelse av den observerade scenen. Många befintliga metoder använder superpixlar för legalisering, men kan förutsäga inkonsekventa former och rörelser inuti styvt rörliga objekt. Vi antar istället att scener består av förgrundsobjekt som rör sig stelt framför en statisk bakgrund, och använder semantiska signaler för att producera pixel-korrekta scenflödesberäkningar. Vårt kaskaderade klassificeringsramverk modellerar noggrant 3D-scener genom att iterativt förfina semantiska segmenteringsmasker, stereokorrespondenser, 3D stela rörelseberäkningar och optiska flödesfält. Vi utvärderar vår metod på den utmanande KITTI autonoma körriktmärke, och visar att redovisning för rörelse av segmenterade fordon leder till state-of-the-art prestanda. | I REF ) föreslogs ett kaskadiserat klassificeringsramverk som noggrant modellerar 3D-scener genom iterativ raffinering av semantiska segmenteringsmasker, stereokorrespondenser, 3D-uppskattningar av styv rörelse och optiska flödesfält. | 47,353,255 | Cascaded Scene Flow Prediction Using Semantic Segmentation | {'venue': '2017 International Conference on 3D Vision (3DV)', 'journal': '2017 International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science']} | 6,047 |
Flera nya studier har använt matris factorization algoritmer för att bedöma hypotesen att beteenden kan produceras genom kombinationen av ett litet antal muskelsynergier. Även om de i allmänhet instämmer i sina grundläggande slutsatser, har dessa studier använt en rad olika algoritmer, vilket gör det svårt att tolka och integrera dem. Vi jämförde därför dessa olika algoritmers prestanda på både simulerade och experimentella datamängder. Vi fokuserade på förmågan hos dessa algoritmer att identifiera den uppsättning synergier som ligger till grund för en datauppsättning. Alla datamängder bestod av icke-negativa värden som återspeglade icke-negativa data från muskelaktiveringsmönster. Vi fann att prestandan hos huvudkomponentanalys (PCA) i allmänhet var lägre än hos de andra algoritmerna för att identifiera muskelsynergier. Faktoranalys med varimax rotation (FA) var bättre än PCA, och var i allmänhet på samma nivåer som ICA och NMF. Oberoende komponentanalys (ICA) utfördes mycket bra på datamängder korrumperade av konstant varians Gaussian buller, men var nedsatt på datamängder med signalberoende buller och när synergi aktiveringskoefficienter korrelerade. Icke-negativ matris factorization (NMF) utförs på samma sätt som ICA och FA på datamängder med signalberoende buller och var i allmänhet robust över datamängder. De bästa algoritmerna var ICA som tillämpades på den subrymd som definierades av PCA (ICAPCA) och en version av probabilistisk ICA med icke-negativitetsbegränsningar (piCA). Vi utvärderade också några allmänt använda kriterier för att identifiera antalet synergier som ligger till grund för en datauppsättning, och fann att endast sannolikhetskvoter baserade på faktoranalys identifierade det korrekta antalet synergier för datamängder med signalberoende buller i vissa fall. Sedan föreslog vi ett ad hoc-förfarande där man fann att man kunde identifiera det korrekta antalet i ett större antal fall. Slutligen tillämpade vi dessa metoder på en experimentellt erhållna datauppsättning. De bäst presterande algoritmerna (FA, ICA, NMF, ICAPCA, pica) identifierade synergier som mycket liknar varandra. Baserat på dessa resultat diskuterar vi riktlinjer för användning av faktoriseringsalgoritmer för att analysera muskelaktiveringsmönster. Mer allmänt, förmågan hos flera algoritmer att identifiera de korrekta muskelsynergier och aktiveringskoefficienter i simulerade data, kombinerat med deras konsekvens när de tillämpas på fysiologiska datamängder, tyder på att de muskelsynergier som hittas av en viss algoritm inte är en artefakt av den algoritmen, men återspeglar grundläggande aspekter av organisationen av muskelaktiveringsmönster underliggande beteenden. | I REF utvärderades olika matrisfaktoriseringsalgoritmer såsom Principal Component Analysis (PCA), Factor Analysis (FA), Independent Component Analysis (ICA) och Non-negative Matrix Factorization (NMF) på EMG inspelning. | 2,891,763 | Matrix factorization algorithms for the identification of muscle synergies : evaluation on simulated and experimental data sets | {'venue': 'Journal of neurophysiology', 'journal': 'Journal of neurophysiology', 'mag_field_of_study': ['Psychology', 'Medicine']} | 6,048 |
ACLP är ett system som kombinerar abduktiva resonemang och begränsningslösning genom att integrera ramverken för Abductive Logic Programmering (ALP) och Constraint Logic Programmering (CLP). Den utgör en allmän kunskapsrepresentationsmiljö på hög nivå för abduktiva problem inom artificiell intelligens och andra områden. I ACLP stöds och förstärks bortförandets uppgift genom dess icke-triviala integration med begränsningslösning som underlättar dess tillämpning på komplexa problem. ACLP-systemet implementeras för närvarande ovanpå CLP-språket ECLiPSe som en metatolk som utnyttjar sin underliggande begränsningslösare för ändliga domäner. Den har tillämpats på problemen med planering och schemaläggning för att testa dess beräkningseffektivitet jämfört med den direkta användningen av den (lägre) begränsningslösningsram för CLP som den bygger på. Dessa experiment ger belägg för att ACLP:s bortförande ramar inte i någon större utsträckning äventyrar lösningarnas beräkningseffektivitet. Andra experiment visar den naturliga förmågan hos ACLP att enkelt och på ett robust sätt tillgodose nya eller föränderliga krav på det ursprungliga problemet. | Ett annat genomförande representeras av ACLP REF; ACLP är ett system som kombinerar abduktiva resonemang och begränsningslösning genom att integrera ramverken för Abductive Logic Programmering och Constraint Logic Programmering (CLP). | 14,342,833 | ACLP: Integrating Abduction and Constraint Solving | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,049 |
Enstaka bild regn strimma avlägsnande är ett extremt utmanande problem på grund av förekomsten av icke-uniforma regn densiteter i bilder. Vi presenterar en ny densitetaware multi-stream tätt ansluten konvolutional neurala nätverk-baserad algoritm, kallad DID-MDN, för gemensam regndensitet uppskattning och av-utbildning. Den föreslagna metoden gör det möjligt för nätet självt att automatiskt bestämma regntäthetsinformationen och sedan effektivt ta bort motsvarande regngaller som styrs av den beräknade regntäthetsmärkningen. För att bättre karakterisera regngaller med olika skalor och former föreslås ett tätkopplat avstämningsnätverk som effektivt utnyttjar funktioner från olika skalor. Dessutom skapas en ny datauppsättning som innehåller bilder med regntäthetsetiketter och används för att utbilda det föreslagna nätverket för densitetsmedvetenhet. Omfattande experiment på syntetiska och verkliga dataset visar att den föreslagna metoden uppnår betydande förbättringar jämfört med de senaste toppmoderna metoderna. Dessutom utförs en ablation studie för att visa de förbättringar som uppnås genom olika moduler i den föreslagna metoden. Koden kan laddas ner på https://github.com/hezhangsprinter/DID-MDN | Nyligen, i REF, en densitet medveten multi-stream tätt ansluten CNN föreslås för gemensam mätning regntäthet och av-utbildning. | 3,406,592 | Density-Aware Single Image De-raining Using a Multi-stream Dense Network | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 6,050 |
Spektral-spatial bearbetning har alltmer utforskats i fjärranalys hyperspektral bildklassificering. Även om omfattande studier har fokuserat på att utveckla metoder för att förbättra klassificeringsnoggrannheten, har experimentell inställning och design för metodutvärdering inte uppmärksammats särskilt mycket. Inom ramen för den övervakade klassificeringen finner vi att traditionella experimentella konstruktioner för spektral bearbetning ofta felaktigt används i det spektral-spatiala bearbetningssammanhanget, vilket leder till orättvis eller partisk prestandautvärdering. Detta är särskilt fallet när utbildning och tester prov slumpmässigt dras från samma bild - en praxis som har allmänt antagits i experimenten. Under sådana förhållanden kan det beroende som orsakas av överlappningen mellan utbildnings- och testproverna ökas artificiellt genom vissa metoder för rumslig informationsbehandling, t.ex. rumslig filtrering och morfologisk drift. Ett sådant samspel mellan utbildnings- och testuppsättningar har brutit mot ett antagande om dataoberoende som följs av en övervakad inlärningsteori och en mekanism för utvärdering av prestanda. Därför är den allmänt antagna pixelbaserade slumpmässiga provtagningsstrategin inte alltid lämplig för att utvärdera spektral-spatiala klassificeringsalgoritmer eftersom det är svårt att avgöra om förbättringen av klassificeringsnoggrannheten orsakas av att rumslig information införlivas i klassificeringen eller genom att överlappningen mellan utbildningen ökar. | Ett nyare arbete föreslog ett provtagningssystem som minimerar den rumsliga överlappningen mellan tåg- och testdata Ref. | 15,410,401 | On the Sampling Strategy for Evaluation of Spectral-spatial Methods in Hyperspectral Image Classification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,051 |
I eran av big data, med det ökande antalet granskningsdata funktioner, människa-centrerad smart intrång detektionssystem prestanda minskar i utbildningstid och klassificering noggrannhet, och många stöd vektor maskin (SVM)-baserade intrång detektion algoritmer har använts i stor utsträckning för att identifiera ett intrång snabbt och exakt. I detta dokument föreslås FWP-SVM-genetisk algoritm (GA) (funktionsval, vikt och parameteroptimering av stödvektormaskin baserad på den genetiska algoritmen) baserat på egenskaperna hos GA och SVM-algoritmen. Algoritmen optimerar först crossover-sannolikheten och mutationsannolikheten för GA enligt populationsutvecklingen algebra och konditionsvärde; sedan använder den därefter en funktionsvalsmetod baserad på den genetiska algoritmen med en innovation i konditionsfunktionen som minskar SVM-felfrekvensen och ökar den verkliga positiva hastigheten. Slutligen, enligt den optimala funktionsundergruppen, är funktionsvikterna och parametrarna för SVM samtidigt optimerade. Simuleringsresultaten visar att algoritmen accelererar algoritmkonvergensen, ökar den verkliga positiva hastigheten, minskar felfrekvensen och förkortar klassificeringstiden. Jämfört med andra SVM-baserade detektionsalgoritmer för intrång är detektionshastigheten högre och de falska positiva och falska negativa frekvenserna lägre. INDEX TERMS Genetisk algoritm, intrång upptäckt, stöd vektor maskin. | Tao och Al. REF använde den genetiska algoritmen (GA) vid sidan av SVM. | 4,568,579 | An Improved Intrusion Detection Algorithm Based on GA and SVM | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,052 |
Återkoppling av Pseudo-relevans är en effektiv teknik för att förbättra hämtningsresultaten. Traditionella feedbackalgoritmer använder ett helt feedback-dokument som en enhet för att extrahera ord för frågeexpansion, vilket inte är optimalt eftersom ett dokument kan täcka flera olika ämnen och därmed innehålla mycket irrelevant information. I det här dokumentet studerar vi hur man på ett effektivt sätt kan välja ut de ord som är fokuserade på frågeämnet utifrån termernas positioner i feedbackdokumenten. Vi föreslår en modell för positionsrelevans (PRM) för att ta itu med detta problem på ett enhetligt probabilistiskt sätt. Den föreslagna PRM är en utvidgning av relevansmodellen för att utnyttja termen positioner och närhet för att tilldela fler vikter till ord närmare frågeord baserat på intuitionen att ord närmare frågeord är mer benägna att vara relaterade till frågeämnet. Vi utvecklar två metoder för att uppskatta PRM baserat på olika provtagningsprocesser. Experimentella resultat på två stora datauppsättningar visar att den föreslagna PRM är effektiv och robust för återkoppling med pseudorelevans, vilket i hög grad överträffar relevansmodellen i både dokumentbaserad återkoppling och passagebaserad återkoppling. | Denna brist på RLM togs upp av modellen för positionsrelevans (PRLM) REF, som tilldelar högre vikter för samtidiga händelser inom nära räckhåll för att bättre uppskatta relevansmodellen. | 3,209,120 | Positional relevance model for pseudo-relevance feedback | {'venue': "SIGIR '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,053 |
Med mer än 12 000 servrar i över 1000 nätverk bekämpar Akamais distribuerade innehållsleveranssystem flaskhalsar och avstängningar genom att leverera innehåll från Internets kant. s webbplatser blir populära, de blir alltmer sårbara för flash crowd problem, där begära belastning överväldigar någon aspekt av webbplatsens infrastruktur, såsom frontend webbserver, nätverksutrustning, eller bandbredd, eller (på mer avancerade webbplatser) back-end transaktion-behandling infrastruktur. Den resulterande överbelastningen kan krascha en webbplats eller orsaka ovanligt höga svarstider - som båda kan översättas till förlorade intäkter eller negativa kundattityder mot en produkt eller varumärke. Vårt företag, Akamai Technologies, utvecklades ur en MIT forskning som syftar till att lösa problemet flash crowd (www.akamai.com/sv/html/about/historia.html). Vår strategi bygger på observationen att servering av webbinnehåll från en enda plats kan innebära allvarliga problem för webbplats skalbarhet, tillförlitlighet och prestanda. På så sätt skapade vi ett system för att betjäna förfrågningar från ett variabelt antal surrogatservrar vid nätverkskanten. 1 Genom att cacha innehåll vid Internets kant, minskar vi efterfrågan på webbplatsens infrastruktur och ger snabbare service för användare, vars innehåll kommer från närliggande servrar. När vi lanserade Akamai-systemet i början av 1999 levererade det endast webbobjekt (bilder och dokument). Det har sedan dess utvecklats för att distribuera dynamiskt genererade sidor och även applikationer till nätverkets kant, vilket ger kunderna med on-demand bandbredd och beräkna kapacitet. Detta minskar innehållsleverantörernas infrastrukturkrav och gör det möjligt för dem att distribuera eller utöka tjänster snabbare och enklare. Vårt nuvarande system har mer än 12.000 servrar i över 1000 nätverk. Operativa servrar på många platser innebär många tekniska utmaningar, inklusive hur man riktar användarens begäran till lämpliga servrar, hur man hanterar fel, hur man övervakar och kontrollerar servrarna, och hur man uppdaterar programvara över hela sys-tem. Här beskriver vi vårt system och hur vi har hanterat dessa utmaningar. Forskare har utforskat flera sätt att leverera innehåll på ett skalbart och tillförlitligt sätt. Lokal klusterbildning kan förbättra feltolerans och skalbarhet. Om det datacenter eller den Internetleverantör som tillhandahåller anslutning misslyckas, dock hela kluster är otillgänglig för användare. För att lösa detta problem, webbplatser kan erbjuda spegling (deploying kluster på några platser) och multihoming (med hjälp av flera Internetleverantörer för att ansluta till Internet). Clustering, spegling och multihoming är vanliga metoder för platser med stränga tillförlitlighet och skalbarhet behov. Dessa metoder löser dock inte alla konnektivitetsproblem, och de introducerar nya: I Det är svårt att skala kluster till tusentals servrar. I Med multihoming, de underliggande nätverksprotokoll - särskilt gräns gateway protokoll (BGP) 2 - inte konvergera snabbt till nya vägar när anslutningar misslyckas. I Spegeling kräver att webbplatsen synkroniseras bland speglarna, vilket kan vara svårt. I samtliga tre fall krävs överkapacitet: Med kluster måste det finnas tillräckligt många servrar på varje plats för att hantera toppbelastningar (vilket kan vara en storleksordning över genomsnittliga belastningar); med multihoming måste varje anslutning kunna bära hela trafiken; och med spegelbildning måste varje spegel kunna bära hela lasten. Var och en av dessa lösningar medför således en avsevärd kostnad, som mer än fördubblar en anläggnings initiala infrastrukturkostnader och löpande driftskostnader. Internet är ett komplext nätverk. Trängsel och misslyckanden förekommer på många olika platser, inklusive jag "första milen" (som delvis åtgärdas genom multihoming ursprungsservern), I ryggraden, Jag peering punkter mellan nätverksleverantörer, och jag "sista milen" till användaren. Genom att använda oberoende proxycache över hela Internet kan man ta itu med vissa av dessa flaskhalsar. Transit-Internetleverantörer och slutanvändarorganisationer har installerat proxycaches för att minska latens- och bandbreddskrav genom att betjäna användare direkt från en tidigare efterfrågad innehållscache. Men, Web proxy cache träffhastigheter tenderar att vara låg -25 till 40 procent - delvis eftersom webbplatser använder mer dynamiskt innehåll. Som ett resultat, proxy caches har haft begränsad framgång i att förbättra webbplatsernas skalbarhet, tillförlitlighet och prestanda. Akamai har ett nära samarbete med innehållsleverantörer för att utveckla funktioner som förbättrar servicen för deras webbplatser och för att leverera mer innehåll från nätverkskanten. Till exempel, funktioner som tillstånd, kontroll över innehåll ogiltighet, och dynamisk innehåll montering kan vi leverera innehåll som annars skulle vara ogenomförbar. Även ISP caches kan innehålla liknande funktioner, för att vara användbara skulle de vara tvungna att standardisera funktioner och deras genomförande över de flesta cache leverantörer och distributioner. Fram till dess att en sådan funktion används i stor utsträckning har innehållsleverantörerna föga incitament att använda den. Eftersom Akamai kontrollerar både sitt nätverk och sin mjukvara kan vi snabbt utveckla och distribuera funktioner. Akamais infrastruktur hanterar flashpubliker genom att tilldela fler servrar till webbplatser som upplever hög belastning, samtidigt som den betjänar alla kunder från närliggande servrar. Systemet leder klientförfrågningar till närmaste tillgängliga server som sannolikt har det begärda innehållet. Den bestämmer detta enligt följande: I Nearest är en funktion av nätverk topologi och dynamiska länkegenskaper: En server med en lägre tur och retur tid anses närmare än en med en högre tur och retur tid. På samma sätt är en server med låg paketförlust för klienten närmare än en med hög paketförlust. I Tillgänglig är en funktion av belastning och nätverksbandbredd: En server som har för mycket last eller ett datacenter som tjänar nära sin bandbreddskapacitet är inte tillgänglig för att betjäna fler kunder. I Sannolikt är en funktion av vilka servrar bär innehållet för varje kund i ett datacenter: Om alla servrar servers allt innehåll - av roundrobin DNS, till exempel - då servrarnas disk och minnesresurser skulle konsumeras av den mest populära uppsättningen av objekt. I det senare fallet, en Akamai webbplats kan hålla ett dussin eller fler servrar inom något datacenter; systemet distribuerar innehåll till det minsta antalet servrar på varje plats för att maximera systemresurser inom webbplatsen. Riktningen för förfrågningar till innehållsservrar kallas kartläggning. Akamais kartläggning tech- Content Delivery nologi använder ett dynamiskt, feltolerant DNS-system. Karteringssystemet löser ett värdnamn baserat på den begärda tjänsten, användarens plats och nätverksstatus; det använder även DNS för nätbelastningsbalansering. Sidofältet "DNS-upplösning" beskriver den vanliga DNS-upplösningsprocessen för ett Akamai edge servernamn, vilket motsvarar steg 1 och 2 i figur 1. I steg 3 gör kunden en HTTP-begäran till egg-servern, som sedan hämtar innehållet genom att begära det antingen från en annan Akamai-server (steg 4) eller innehållsleverantörens server (steg 5). Servern returnerar sedan den begärda informationen till klienten och loggar begärans färdigställande. Akamai namnservrar lösa värdnamn till IP-adresser genom att mappa förfrågningar till en server med hjälp av några eller alla av följande kriterier. Jag servar begärd. Servern måste kunna uppfylla begäran. Namnservern får inte rikta en begäran om en QuickTime-mediaström till en server som endast hanterar HTTP. Jag servar hälsa. Innehållsservern måste vara igång utan fel. Jag servar lastar. Servern måste fungera under en viss belastningströskel och därmed vara tillgänglig för ytterligare förfrågningar. Belastningsmåttet inkluderar normalt målserverns CPU, disk och nätverksanvändning. I Nätverkskondition. Kunden måste kunna nå servern med minimal paketförlust, och serverns datacenter måste ha tillräcklig bandbredd för att hantera ytterligare nätverksförfrågningar. Jag klientens plats. Servern måste vara nära kunden när det gäller åtgärder som nätverk tur och retur. Jag ville ha mitt innehåll. Servern måste sannolikt ha innehållet, enligt Akamais konsekventa hash-algoritm. Internetroutrar använder BGP-meddelanden för att utbyta information om nättillgänglighet mellan BGP-system och beräkna den bästa ruttvägen bland Internets autonoma system. 2 Akamai agenter kommunicerar med vissa gräns routrar som jämlikar; karteringssystemet använder den resulterande BGP information för att bestämma nätverket topologi. Antalet humle mellan autonoma system är ett grovt men användbart mått på nätavstånd. Kartläggningssystemet kombinerar denna information med statistik över levande nät – som t.ex. spårvägsdata 3 – för att ge en detaljerad, dynamisk bild av nätverksstruktur och kvalitetsåtgärder för olika kartläggningar. Att genomföra detta kartläggningssystem i global skala innebär flera utmaningar, som vi diskuterar senare. Vårt DNS-baserade lastbalanseringssystem övervakar kontinuerligt tjänsternas tillstånd samt deras servrar och nätverk. Var och en av innehållsservrarna - för HTTP, HTTPS och strömmande protokoll - rapporterar ofta sin last till en övervakningsprogram, som aggregerar och publicerar lastrapporter till den lokala DNS-servern. Den DNS-servern bestämmer sedan vilka IP-adresser (två eller fler) som ska returneras när DNS-namn löses. Om en servers belastning överstiger en viss tröskel, tilldelar DNS-servern samtidigt en del av serverns tilldelade innehåll till ytterligare servrar. Om belastningen överstiger ett annat tröskelvärde är serverns IP-adress inte längre tillgänglig för kunder. Servern kan därmed kasta en bråkdel av sin last när den upplever måttlig till hög belastning. Övervakningssystemet överför också data center belastning till toppnivå DNS resolver för att styra trafiken bort från överbelastade datacenter. För att övervaka hela systemets hälsa end-to-end använder Akamai agenter som simulerar slutanvändarnas beteende genom att ladda ner webbobjekt och mäta deras felfrekvenser och nedladdningstider. Akamai använder denna information för att övervaka systemets övergripande prestanda och för att automatiskt upptäcka och stänga av problematiska datacenter eller servrar. Förutom belastningsbalansering ger Akamais övervakningssystem centraliserad rapportering om innehållstjänst för varje kund och innehållsserver. Denna information är grunden för Akamai realtid kundtrafik analysator ansökan. Informationen är användbar för nätverksdrift och diagnostiska ändamål, och ger tillgång i realtid till en rad tjänsteparametrar organiserade som en databas. Programmets SQL-liknande gränssnitt stöder ad-hoc-frågor mot levande och historiska data, som låter operationspersonalen lokalisera den mest trafikerade kunden, servern använder mest minne eller diskutrymme, eller switchen eller datacenter närmast sin bandbredd gräns. Akamai servrar levererar flera typer av innehåll: statiskt och dynamiskt innehåll över HTTP och HTTPS, och strömmande ljud och video över de tre streaming protokoll som beskrivs nedan. Statisk webbinnehåll består av HTML-sidor, inbäddade bilder, körbara filer, PDF-dokument och så vidare. Akamais innehållsservrar använder innehållstyp för att tillämpa livstid och andra funktioner på statiska dokument, som har varierande cachebarhet och kan ha särskilda servicekrav. Livstiderna kan till exempel variera från noll sekunder, där eggservern validerar objektet med ursprungsservern på varje begäran, till oändlig, där innehållsservern aldrig kontrollerar objektets konsistens. Livstidsvärden för Akamai edge servrar kan också skilja sig från nedströms proxyservrar och slutanvändare. Särskilda funktioner kan inkludera möjligheten att tjäna säkert innehåll via HTTPS-protokollet, stödja alternativt innehåll och överföringskodningar, hantera cookies och så vidare. Akamai kontrollerar funktioner för varje kunds räkning med hjälp av en metadataanläggning som beskriver vilka funktioner som ska tillämpas av kunden, innehållstyp och andra kriterier. Dagens webbplatser är starkt beroende av dynamisk innehållsgenerering för att erbjuda slutanvändare rika och fängslande material. Som vi noterade tidigare, dock, proxy caches kan normalt cache dynamiskt innehåll. En proxycache kunde till exempel inte hantera en i stort sett statisk webbsida om den innehöll en annons som ändrades enligt varje användares profil. För att hantera detta använder vi Edge Side Inkluderar teknik (www.esi.org), som monterar dynamiskt innehåll på kantservrar. ESI liknar serversidan inkluderar språk, men lägger till feltoleransfunktioner (för när ursprungsservern inte är tillgänglig) och integrerar en omfattande stilmall Language Transformation (XSLT) motor för att behandla XML-data. Med hjälp av ESI kan en innehållsleverantör bryta en dynamisk sida i fragment med oberoende cacheability egenskaper. Dessa fragment underhålls som separata objekt i kantserverns cache och monteras dynamiskt på webbsidor som svar på användarens önskemål. Förmågan att montera dynamiska sidor från enskilda sidfragment innebär att servern endast får hämta icke-cachebara eller utgångna fragment från webbplatsens ursprung. Detta minskar både belastningen på webbplatsens infrastruktur för innehållsgenerering och de data som eggservern måste hämta från den centrala ursprungsservern. ESI reducerad bandbredd Innehåll Leverans Akamai edge servrar finns med hjälp av ett DNS-namn, såsom a7.g.akamai.net.En DNS-upplösning löser detta namn på det vanliga sättet, från höger till vänster, fråga DNS-namn servrar till IP-adresser för värd a7 i domänen.g.akamai.net returneras. Varje namn resolution associerar en "tid att leva" (TTL) med resolutionen, som fortskrider enligt följande: 1. Upplösaren väljer en rotnamnsserver och ber den att lösa namnet a1.g.akamai.net.Rootnamnsservern själv löser inte namnet, utan skickar istället ett domändelegeringssvar med IP-adresser till namnservrarna som hanterar.net-domänförfrågningar. 2. Utgångspunkten är följande: Upplösaren frågar sedan.net-namnservrarna, som returnerar en domändelegation (NS-poster) för.akamai.net. Dessa är Akamai toppnivå namnservrar (top-level DNS i Figur 1 ). 3. Vad är det som händer? Därefter frågar resolver en Akamai TL DNS-server, som returnerar en domändelegation för.g.akamai.net till låg nivå Akamai namnservrar (LL NS i Figur 1 ) med en TTL på cirka en timme.De lågnivånamn servrar som väljs motsvarar (och är på samma plats som) de tillgängliga kantservrar som är närmast den begärande användaren. 4. Vad är det som händer? Slutligen, löseren frågar en Akamai lågnivå DNS-server, som returnerar IP-adresser för servrar tillgängliga för att uppfylla begäran.Denna resolution har en kort TTL (flera sekunder till en minut), som uppmuntrar frekventa uppdateringar av DNS-upplösningen och tillåter Akamai att rikta förfrågningar till andra platser eller servrar som villkor ändras. En upplösning är förkonfigurerad för att veta Internet rotnamn servrar IP-adresser, som är utgångspunkterna för en DNS-upplösning om upplösningen saknar nödvändig information i sin cache. Om upplösningen har giltiga IP-adresser för.net-namnservern, hoppar den över steg 1; om den har cacheade IP-adresser för g.akamai.net-namnservrarna, hoppar den över steg 1 till 3. Upplösningsprocessen är densamma för alla DNS-namn. Akamai namn-upplösning skiljer sig dock i hur dess namn servrar beter sig. krav på dynamiskt innehåll med 95 till 99 procent på en rad dynamiska webbplatser vi studerat, inklusive portaler och finansiella webbplatser. Minskningen av den centrala infrastrukturen innebär betydande besparingar för innehållsleverantörerna. Akamais streamingnätverk stöder live- och ondemand-media i de tre stora formatenMicrosoft Windows Media, Real och Apples QuickTime. Samtidigt bygga ett strömmande leveransnätverk presenterar några tekniska frågor som liknar dem i ett webbleveransnätverk, det finns också betydande ytterligare utmaningar. För det första fångar och kodar innehållsleverantören vanligtvis en liveström och skickar den till en ingångsserver i Akamai-nätverket. Med tanke på vår princip om att ta bort alla enskilda felpunkter måste vi ha mekanismer som snabbt kommer att reagera på en misslyckad ingångspunktsserver. Specifikt, en annan entry-point server måste plocka upp live-strömmen tillräckligt snabbt att slutanvändaren upptäcker inget avbrott i strömmen. Strömmen levereras från entry-point server till flera edge servrar, som i sin tur tjänar innehållet till slutanvändare. Mediapaketleverans från ingångspunkten till kantservrarna måste vara motståndskraftig mot nätverksfel och paketförlust, och därför måste ingångspunktens server dirigera paketflöden runt överbelastade och misslyckade länkar för att nå kantservern. Dessutom måste ingångs- och kantservrar leverera paket utan betydande dröjsmål eller jitter eftersom ett sent eller out-of-order-paket är värdelöst i uppspelningen. Vid behov använder Akamai informationsspridningstekniker som låter ingångspunktens server skicka data på flera redundanta sökvägar, som låter kantservern skapa en ren kopia av strömmen även när vissa sökvägar är nere eller förlorade. Vanligtvis laddar en innehållsleverantör upp ett ondemand klipp till en Akamai innehållslagringsanläggning. Vi distribuerar lagringsanläggningen över många datacenter och kopierar automatiskt det uppladdade klippet till en delmängd av centrumen. En kantserver som tar emot en strömförfrågan laddar ner innehållet från sin optimala lagringsplats och cachar det lokalt medan den betjänar begäran. Att bygga ett globalt nätverk innebär många icke-tekniska utmaningar, bland annat utbyggnad av nätverksutrustning och serverhårdvara, upprättande av goda arbetsrelationer med nätverksleverantörer, kontroll av driftskostnader och förvärv och stöd till kunder. Även om dessa utmaningar är betydande fokuserar vi här på utmaningar relaterade till design, byggande och drift av själva systemet. Akamais nätverk måste skalas för att stödja många geografiskt distribuerade servrar, och många kunder med olika behov. Detta innebär följande utmaningar. I Övervakning och kontroll tiotusentals allmänt distribuerade servrar, samtidigt som övervakning bandbredd till ett minimum. Jag övervakar nätverksförhållandena över och mellan tusentals platser, samlar denna information, och använder den för att generera nya kartor med några sekunder. Framgång här beror på att minimera overhead läggs till DNS för att undvika långa DNS uppslagningstider; Detta låter oss utföra de beräkningar som krävs för att identifiera den optimala servern off-line, snarare än att låta användaren vänta. Jag handlar graciöst med ofullständig och föråldrad information. Detta kräver noggrann design och iterativ algoritm tuning. Jag reagerar snabbt på ändrade nätverksförhållanden och ändrade arbetsbelastningar. I Mäta Internet villkor på en fin nog granularitet för att uppnå hög sannolikhet uppskattningar av slutanvändarens prestanda. I Hantera, tillhandahålla och lösa problem för många kunder med varierande behov, varierande arbetsbelastning och varierande mängd innehåll. Jag isolerar kunder så att de inte kan påverka varandra negativt. Jag säkerställer dataintegritet över många terabyte av lagring över nätverket. Eftersom låga nivåer (filsystem eller disk) kontroller är otillräckliga för att skydda mot eventuella fel - inklusive de som orsakas av operatörer och programvara buggar vi också utföra end-to-end kontroller. I Samla in loggar med information om användarförfrågningar, behandla dessa loggar (för fakturering), och leverera korrekt, snabb fakturering information till kunder. För att möta utmaningarna med att övervaka och kontrollera innehållsservrar utvecklade Akamai en distribuerad övervakningstjänst som är motståndskraftig mot tillfällig informationsförlust. För att lösa problem för kunderna har Akamai kundfokuserade team som diagnostiserar problem och tillhandahåller faktureringstjänster. Systemtillförlitlighet Ett distribuerat system erbjuder många möjligheter till feltolerans, men introducerar också många komponenter som kan misslyckas. Detta är delvis ett skalproblem: Systemfel måste upptäckas och korrigeras över flera mjukvaruplattformar. Det är också oundvikligt att dator hårdvara kommer att åldras, särskilt diskar och andra rörliga delar. Som ett stort nätverk utrustning åldrar, en bråkdel av enheterna kommer att misslyckas varje månad. Nätverkspersonalen måste upptäcka fel på ett tillförlitligt sätt och snabbt ta bort enheter från tjänsten så att de kan skickas till ett lager och kanske repareras och återföras till service. Akamais övervaknings- och karteringsprogram säkerställer att server- eller nätverksfel inte påverkar slutanvändare, och DNS-systemet upptäcker fel snabbt och omedelbart delar ut nya IP-adresser. För kunder som fortfarande använder cached DNS-svar, två mekanismer hjälper till att förhindra överbelastning: DNS-upplösningen kan returnera flera IP-adresser, så att klienten kan prova en annan adress, eller en liveserver på webbplatsen kan anta den misslyckade serverns IP-adress. För att förhindra problem när nätverksfel gör webbplatser oåtkomliga (på grund av router och byta problem, till exempel), kommer toppnivå (TL) DNS identifiera lokala DNS-servrar på olika webbplatser för att säkerställa att kunderna kan nå en live DNS-server. För att undvika avbrott måste vi också noga undvika enstaka brister i hela systemet. Våra kantservrar ger massiv replikering för leverans av innehåll och DNS-förfrågan. Vi undviker också enstaka felpunkter genom att replikera övervaknings- och kontrollmekanismer. Slutligen måste vi upptäcka och reparera programvarubrister. En viktig utmaning i webbinnehållstjänsten är att klientförfrågningar och serversvar inte är statiska -nya förfrågan och svarsrubriker regelbundet visas som leverantörer förbättra sina webbläsare och servrar, och kantservrar måste tolka dessa förändringar korrekt och effektivt. Eftersom sådana förbättringar kan komma när som helst, är det omöjligt att testa nya versioner på alla relevanta webbläsar- och innehållsserver-versioner; testa innehållsserver funktioner med den översta webbläsaren och innehållsserver konfigurationer ensam skapar en mycket komplex testmatris. För att möta denna utmaning skapade vi ett testverktyg som leder en kopia av en liveservers trafik till en testversion av vår programvara utan att påverka innehållstjänsten. Denna verkliga trafik gör det möjligt för oss att hitta problem innan programvara distribueras till live-nätverket. Förutom att utöka nätverkets storlek och omfattning måste mjukvaran utvecklas med nya funktioner för kunderna, förbättrad prestanda samt bättre drift- och övervakningskapacitet. För att möta denna utmaning måste vi distribuera högkvalitativ programvara till servrar på många nätverk, ibland snabbt för att anpassa en snabb affärsmodell till marknaden. Vi kan inte uppgradera mjukvaran på hela nätverket atomiskt. Om inget annat, försiktighet dikterar att vi distribuerar nya nätverk programvara i etapper så att vi kan upptäcka problem innan de har betydande inverkan. Dessutom är det osannolikt att alla kantservrar (eller till och med alla nätverk) kommer att vara tillgängliga samtidigt. Det är oundvikligt att vi missar några servrar och måste uppdatera dem vid ett senare tillfälle. Som ett resultat är det mer regel än undantaget att ha två versioner av en programvarukomponent live på nätverket samtidigt. Med tanke på detta måste vi skriva komponenter så att olika versioner kan samexistera och noggrant hantera ändringar i komponentgränssnitt. Nätverksverksamheten måste kontinuerligt övervaka nätverket och stänga av alla felaktigt inställda servrar. Servererna i Akamai-nätverket körs på operativsystemen Linux och Windows. Drift av flera OS-plattformar och -tjänster kräver en övervakningsplattform och verktyg som körs över dessa plattformar och har tillgång till servrarnas parametrar för leverans av tjänster. Denna information krävs för lastbalansering (lokal och global) samt för att stödja problemdiagnos för verksamhet och kundvård. Slutligen, att köra flera plattformar och applikationer kräver expertis på alla plattformar och servrar som stöds. Akamais nätverk distribuerar och betjänar innehåll för leverantörer, som måste behålla kontrollen över sitt innehåll när vi tjänar det vid kanten, och se information i realtid om vilket innehåll som serveras till vem och när. Att tillhandahålla denna synlighet och innehållskontroll erbjuder utmaningar i cachekonsistens, livstids- och integritetskontroll och flera andra områden. Cache-konsistens. När objekt som kantservrarna levererar är cachebara, måste vi ta itu med konsekvensen av cachet innehåll; när de är ocachebara, hög prestanda leverans är en utmaning. För att ta itu med cacheable-objekt-konsistens använder innehållsleverantörer ofta etablerade tekniker, såsom att tillämpa en "time to live" (TTL) på objekt. Vissa objekt kan vara cachebara för alltid, eller åtminstone tills de uttryckligen tas bort av en cachekontrollverktyg (för mer om detta, se "Lifetime Control" sek- IEEE INTERNET COMPUTING | Ett typiskt exempel för en CDN är Akamais distribuerade innehållsleveranssystem, som distribuerar mer än 12000 servrar i över 1000 nätverk runt vår planet REF. | 15,600,989 | Globally Distributed Content Delivery | {'venue': 'IEEE Internet Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,054 |
Abstract-Vi föreslår en semi-direct monocular visuell odometrie algoritm som är exakt, robust och snabbare än nuvarande state-of-the-art metoder. Det semidirekta tillvägagångssättet eliminerar behovet av kostsam funktionsextraktion och robusta matchningstekniker för rörelseuppskattning. Vår algoritm fungerar direkt på pixelintensiteter, vilket resulterar i subpixelprecision vid höga bildhastigheter. En probabilistisk kartläggningsmetod som explicit modellerar avvikande mätningar används för att uppskatta 3D-punkter, vilket resulterar i färre avvikelser och mer tillförlitliga punkter. Exakt och hög bild-hastighet rörelseuppskattning ger ökad robusthet i scener av liten, repetitiv, och högfrekvent struktur. Algoritmen tillämpas på mikro-aerial fordon tillståndsskattning i GPS-förnekade miljöer och körs på 55 ramar per sekund på den inbyggda datorn och på mer än 300 bilder per sekund på en konsument laptop. Vi kallar vår strategi SVO (Semi-direct Visual Odometrie) och släpper vår implementering som öppen källkod programvara. | FAST har nyligen använts i den semi-direkta monokulära visuella odometri REF där FAST funktioner spåras och används för att bygga en karta som används ytterligare för en visuell odometri uppskattning. | 206,850,490 | SVO: Fast semi-direct monocular visual odometry | {'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,055 |
Abstract-Classification är en av de grundläggande uppgifterna för data mining. De flesta regler induktion och beslut träd algoritmer utför lokala, girig sökning för att generera klassificeringsregler som ofta är mer komplexa än nödvändigt. Evolutionära algoritmer för mönsterklassificering har nyligen fått ökad uppmärksamhet eftersom de kan utföra globala sökningar. I detta dokument föreslår vi en ny metod för att upptäcka klassificeringsregler genom att använda genuttrycksprogrammering (GEP), en ny teknik för genetisk programmering (GP) med linjär representation. Tidigare upptäckta regler kan omfatta många olika kombinationer av attribut. För att vägleda sökprocessen föreslår vi en fitnessfunktion med tanke på både regelkonsistensvinsten och fullständigheten. En multiklass klassificering problem formuleras som flera två-klass problem genom att använda en-mot-all inlärningsmetod. Den övergripande strategin tillämpas för att lära sig flera regler om de är tillämpliga för varje klass. Kompakta regeluppsättningar utvecklas därefter med hjälp av en tvåfasbeskärningsmetod baserad på principen om minsta beskrivningslängd (MDL) och integrationsteorin. Vår strategi är också bullertolerant och kan hantera både numeriska och nominella attribut. Försök med flera referensdatauppsättningar har visat upp till 20 % förbättring av valideringsnoggrannheten, jämfört med C4.5-algoritmer. Dessutom är den föreslagna GEP-metoden mer effektiv och tenderar att generera kortare lösningar jämfört med kanoniska trädbaserade GP-klassificerare. | Gene Expression Programmering (GEP) är en ny metod för att extrahera klassificeringsregler genom att använda genetisk programmering med linjär representation REF. | 7,122,527 | Evolving accurate and compact classification rules with gene expression programming | {'venue': 'IEEE Trans. Evol. Comput', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,056 |
Grafisk provtagning via krypning har aktivt ansetts vara ett generiskt och viktigt verktyg för insamling av enhetliga nodprover för att konsekvent uppskatta och avslöja olika egenskaper hos komplexa nätverk. Den så kallade enkla slumpmässiga vandringen med re-viktning (SRW-rw) och Metropolis-Hastings (MH) algoritm har varit populär i litteraturen för sådan objektiv grafprovtagning. Men en oundviklig nackdel av deras kärna slumpmässiga promenader -slow diffusion över rymden, kan orsaka dålig uppskattning noggrannhet. I detta dokument föreslår vi non-backtracking random walk with re-vikting (NBRW-rw) och MH algoritm med fördröjd acceptans (MHDA) som teoretiskt garanteras att uppnå, till nästan ingen extra kostnad, inte bara opartisk grafprovtagning utan också högre effektivitet (mindre asymptotic varians av de resulterande opartiska estimatorer) än SRW-rw respektive MH algoritmen. Särskilt en anmärkningsvärd egenskap hos MHDA är dess tillämplighet för icke-uniform nodprovtagning som MH-algoritmen, men säkerställer bättre provtagningseffektivitet än MH-algoritmen. Vi tillhandahåller även simuleringsresultat för att bekräfta våra teoretiska resultat. | REF införde icke-backtracking slumpmässig gång. | 6,929,678 | Beyond random walk and metropolis-hastings samplers: why you should not backtrack for unbiased graph sampling | {'venue': "SIGMETRICS '12", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 6,058 |
Abstract-Många forskare har hävdat att kombinera många modeller för prognos ger bättre uppskattningar än enstaka tidsserier modeller. Till exempel, en hybrid arkitektur som består av en autoregressiv integrerad glidande medelvärde modell (ARIMA) och ett neuralt nätverk är en välkänd teknik som nyligen har visat sig ge bättre prognoser genom att dra nytta av varje modells kapacitet. Detta antagande innebär emellertid en risk för att förhållandet mellan modellens linjära och icke-linjära komponenter underskattas, särskilt genom antagandet att enskilda prognostekniker är lämpliga för att modellera resterna. I detta dokument visar vi att sådana kombinationer inte nödvändigtvis överträffar enskilda prognoser. Tvärtom visar vi att den kombinerade prognosen kan underskrida betydligt jämfört med dess väljares prestationer. Vi demonstrerar detta med hjälp av nio dataset, autoregressiva linjära och tid-fördröjning neurala nätverk modeller. | De empiriska beläggen från studien i Ref visade att sådana integrerade tillvägagångssätt inte nödvändigtvis överträffar de enskilda prognosmetoderna. | 5,452,605 | A comparative study of autoregressive neural network hybrids | {'venue': 'Neural Networks', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 6,059 |
Abstract-Internet of Things (IoT) växer fram som en del av infrastrukturen för att främja en stor mängd olika tillämpningar som innefattar anslutning av många intelligenta enheter, vilket leder till smarta samhällen. På grund av den stränga begränsningen av datorresurserna för IoT-enheter, är det vanligt att avlasta uppgifter för olika applikationer som kräver betydande datorresurser till datorsystem med tillräckliga datorresurser, såsom servrar, molnsystem, och / eller datacenter för behandling. Avlastningsmetoden lider dock av svårigheter med hög latens och överbelastning av IoT-infrastrukturen. På senare tid har avancerade datorsystem dykt upp för att minska de negativa effekterna av dessa svårigheter. Men kantdatorer har sina nackdelar, till exempel de begränsade datorresurserna hos vissa kantdatorer och den obalanserade belastningen hos dessa apparater. För att på ett effektivt sätt kunna utforska potentialen hos avancerade datorsystem för att stödja IoT-tillämpningar är det nödvändigt att ha en effektiv uppgiftshantering i avancerade datornätverk. I detta dokument presenteras ett tillvägagångssätt för att periodvis distribuera inkommande uppgifter i eggdatornätet så att antalet uppgifter, som kan behandlas i eggdatornätet, ökas och kvaliteten på tjänstekraven (QoS) för de uppgifter som slutförs i eggdatornätet uppfylls. Simuleringsresultat presenteras för att visa på förbättringen av användningen av denna metod för att öka antalet uppgifter som ska slutföras i eggdatanätet. | I synnerhet avser REF tillfredsställande användare QoS, samtidigt som antalet uppgifter som kan hanteras av egg-cloud-infrastrukturen ökar. | 3,422,422 | An Approach to QoS-based Task Distribution in Edge Computing Networks for IoT Applications | {'venue': '2017 IEEE International Conference on Edge Computing (EDGE)', 'journal': '2017 IEEE International Conference on Edge Computing (EDGE)', 'mag_field_of_study': ['Computer Science']} | 6,060 |
Tidig simuleringserfarenhet med trådlösa ad hoc-nätverk tyder på att deras kapacitet kan vara förvånansvärt låg, på grund av kravet att noder vidarebefordrar varandras paket. Den uppnåeliga kapaciteten beror på nätverksstorlek, trafikmönster och detaljerade lokala radiointeraktioner. I detta dokument undersöks dessa faktorer enbart och i kombination, med hjälp av simulering och analys från de första principerna. Våra resultat inkluderar både specifika konstanter och allmänna skalningsrelationer som hjälper till att förstå begränsningarna i trådlösa ad hoc-nätverk. Vi undersöker interaktioner mellan 802.11 MAC och ad hoc vidarebefordran och effekten på kapaciteten för flera enkla konfigurationer och trafikmönster. 802.11 upptäcker någorlunda bra scheman, men vi observerar ändå kapaciteter som är betydligt mindre än optimala för mycket enkla kedje- och latticenätverk med mycket regelbundna trafikmönster. Vi validerar några simuleringsresultat med experiment. Vi visar också att trafikmönstret avgör om ett ad hoc-näts kapacitet per nod kommer att skalas till stora nät. Framför allt visar vi att för den totala kapaciteten att skala upp med nätstorlek måste det genomsnittliga avståndet mellan käll- och destinationsnoder förbli litet i takt med att nätet växer. Icke-lokala trafikmönster där detta genomsnittliga avstånd ökar med nätstorleken resulterar i en snabb minskning av per nodkapacitet. Frågan "Är stora ad hoc-nätverk möjliga?" minskar till en fråga om den troliga lokaliseringen av kommunikation i sådana nätverk. | REF undersökte kapaciteten hos flera enkla konfigurationer av ad hoc-nät och trafikmönster med hjälp av simulering och analys från de första principerna. | 3,467,806 | Capacity of Ad Hoc wireless networks | {'venue': "MobiCom '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,061 |
Abstract -Digital patologi har gått in i en ny era med tillgång till hela bildskannrar som skapar högupplösta bilder av fullständiga biopsibilder. Följaktligen har osäkerheten när det gäller överensstämmelsen mellan bildområdena och de diagnostiska etiketter som patologerna tilldelats på bildnivå och behovet av att identifiera regioner som tillhör flera klasser med olika kliniska betydelser uppstått som två nya utmaningar. Emellertid, generalisability av de state-of-the-art algoritmer, vars noggrannhet rapporterades om noggrant utvalda regioner av intresse (ROI) för binära godartade kontra cancer klassificering, till dessa flerklassiga inlärnings- och lokaliseringsproblem är för närvarande okänd. I detta dokument presenteras våra potentiella lösningar på dessa utmaningar genom att man utnyttjar patologernas tittarregister och deras anteckningar på bildnivå i svagt övervakade inlärningsscenarier. Först, vi extraherar kandidat ROI från loggar av patologer bildundersökningar baserat på olika beteenden, såsom zoomning, panorering, och fixering. Sedan modellerar vi varje rutschkana med en påse med exempel som representeras av kandidaten ROI och en uppsättning klassetiketter som extraheras från patologiska former. Slutligen använder vi fyra olika multi-instance multi-instance lärande algoritmer för både slide-nivå och ROI-nivå förutsägelser av diagnostiska kategorier i hela slide bröst histopatologi bilder. Slide-level utvärdering med hjälp av 5-klass och 14-klass inställningar visade genomsnittliga precisionsvärden upp till 81% respektive 69%, under olika svagt märkta lärande scenarier. ROI-nivå förutsägelser visade att klassificeraren kunde framgångsrikt utföra multi-klass lokalisering och klassificering inom hela bildbilder som valdes för att inkludera hela sortimentet av utmanande diagnostiska kategorier. Index Terms-Digital patologi, brösthistopatologi, helbildsavbildning, region av intressedetektion, svagt märkt lärande, klassificering i flera klasser. | Vi införde nyligen ett multi-instance multi-label lärramverk för att studera osäkerheten när det gäller överensstämmelsen mellan patologernas diabilder och kandidaten ROIs extraheras från deras visningsrekord för svagt övervakad lärande med hjälp av WSI REF. | 998,839 | Multi-Instance Multi-Label Learning for Multi-Class Classification of Whole Slide Breast Histopathology Images | {'venue': 'IEEE Transactions on Medical Imaging', 'journal': 'IEEE Transactions on Medical Imaging', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 6,062 |
Distribuerad Förnekelse av tjänst (DDoS) är en av de vanligaste attackerna som en organisatorisk nätverksinfrastruktur stöter på idag. Vi föreslår en djupinlärning baserad multi-vektor DDoS detektionssystem i en programvarudefinierad nätverk (SDN) miljö. SDN ger flexibilitet att programmera nätverksenheter för olika mål och eliminerar behovet av tredjeparts leverantörsspecifik hårdvara. Vi implementerar vårt system som en nätverksapplikation ovanpå en SDN-styrenhet. Vi använder djupt lärande för funktionsreduktion av en stor uppsättning funktioner som härrör från nätverkstrafikhuvuden. Vi utvärderar vårt system baserat på olika prestandamått genom att tillämpa det på trafikspår som samlats in från olika scenarier. Vi observerar hög noggrannhet med en låg falsk-positiv för attack upptäckt i vårt föreslagna system. | Niyaz m.fl. Ref föreslog en modell baserad på DL i SDN-miljön, eliminerar behovet av utrustning från tredje part och uppnår olika mål och minskar fördelen med ett brett spektrum av funktioner. | 5,572,966 | A Deep Learning Based DDoS Detection System in Software-Defined Networking (SDN) | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,063 |
Optimering av prestandan hos stora dataströmningsprogram har blivit en skrämmande och tidskrävande uppgift: parametrar kan ställas in från ett utrymme på hundratals eller till och med tusentals möjliga konfigurationer. I detta dokument presenterar vi ett ramverk för automatisering av parameterinställning för strömbehandlingssystem. Vårt ramverk stöder standard algoritmer för optimering av svart-box samt en ny algoritm för optimering av grå-box. Vi demonstrerar de många fördelarna med automatiserad parameterinställning vid optimering av tre referensapplikationer i Apache Storm. Våra resultat visar att en kuperad algoritm som använder en ny heuristisk provtagningsmetod baserad på latin Hypercube ger de bästa resultaten. Vår grå-box algoritm ger jämförbara resultat samtidigt som den är två till fem gånger snabbare. | Bilal m.fl. föreslå ett ramverk för att automatisera inställningssystemets prestanda för strömbehandlingssystem REF. | 36,004,644 | Towards automatic parameter tuning of stream processing systems | {'venue': "SoCC '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,064 |
e Nyligen introducerade Multi-mål Gene-pool Optimal Mixing Evolutionary Algorithm (MO-GOMEA) uppvisar utmärkt skalbarhet för att lösa ett brett spektrum av utmanande diskreta multi-objektiva optimeringsproblem. I detta dokument tar vi upp skalbarhetsfrågor för att lösa multiobjektiva optimeringsproblem med kontinuerliga variabler genom att introducera Multi-mål Real-Valuted GOMEA (MO-RV-GOMEA), som kombinerar MO-GOMEA med aspekter av multi-objektive estimation-of-distribution algoritmen som kallas MAMALGaM. MO-RV-GOMEA utnyttjar länkstrukturen i optimeringsproblem genom att utföra distributionsuppskattning, anpassning och provtagning samt blandning av lösningar baserade på en explicit länkmodell. En sådan kopplingsmodell kan beskrivas i förväg när det finns vissa problemspeci c-kunskaper att tillgå, eller så kan man lära sig av befolkningen. Skalbarheten hos MO-RV-GOMEA med hjälp av olika länkmodeller jämförs med de senaste multiobjektiva utvecklingsalgoritmerna NSGA-II och MAMALGaM på ett brett spektrum av referensproblem. MO-RV-GOMEA har visat sig behålla den utmärkta skalbarheten av MO-GOMEA genom ett framgångsrikt utnyttjande av länkstrukturen, skalning avsevärt vara er än NSGA-II och MAMALGAM. skalbarheten förbättras ytterligare när delutvärderingar är möjliga, vilket ger en starkt underlinjär skalbarhet när det gäller antalet utvärderingar. | Den nyligen införda Multi-Teal Real-Valused Gene-pool Optimal Mixing Evolutionary Algorithm (MO-RV-GOMEA) REF har visat sig vara en lovande optimerare, särskilt när det gäller Grayboxoptimering där vissa antaganden görs om typer av problemspecifik kunskap som kan utnyttjas, vilket mycket väl kan vara fallet i många verkliga problem. | 330,066 | The multi-objective real-valued gene-pool optimal mixing evolutionary algorithm | {'venue': "GECCO '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,065 |
Det är välkänt att uttalanden ger en hel del information om talaren utöver deras semantiska innehåll. En sådan typ av information består av ledtrådar till talarens personlighetsdrag, den mest grundläggande dimensionen av variation mellan människor. Den senaste tidens arbete utforskar den automatiska upptäckten av andra typer av pragmatiska variationer i text och samtal, såsom känslor, bedrägeri, talarkarisma, dominans, synvinkel, subjektivitet, åsikt och känsla. Personlighet påverkar dessa andra aspekter av den språkliga produktionen, och därmed kan personlighetsigenkänning vara till nytta för dessa uppgifter, förutom många andra potentiella tillämpningar. Hittills finns det emellertid inte mycket arbete med att automatiskt erkänna personlighetsdrag. Denna artikel rapporterar experimentella resultat för erkännande av alla Big Five personlighetsdrag, i både samtal och text, med användning av både själv- och observatörsklassificeringar av personlighet. Medan andra arbeten rapporterar klassificeringsresultat experimenterar vi med klassificering, regression och rankningsmodeller. För varje modell analyserar vi effekten av olika funktionsuppsättningar på noggrannheten. Resultat visar att för vissa egenskaper, någon typ av statistisk modell presterar betydligt bättre än baslinjen, men ranking modeller presterar bäst totalt sett. Vi presenterar också ett experiment som antyder att rankingmodeller är mer exakta än flera klasser för modellering personlighet. Dessutom presterar igenkännande modeller tränade på observerad personlighet bättre än modeller tränade med hjälp av självrapporter, och den optimala funktionen beror på personlighetsdrag. En kvalitativ analys av de lärda modellerna bekräftar tidigare fynd som kopplar samman språk och personlighet, samtidigt som många nya språkliga markörer avslöjas. | Mairesse et al REF arbetade på det automatiska erkännandet av personlighetsdrag. | 6,030,672 | Using linguistic cues for the automatic recognition of personality in conversation and text | {'venue': 'Journal of Artificial Intelligence Research (JAIR', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,066 |
I detta dokument presenterar vi en strukturell inlärningsmodell för gemensam uppfattningsklassificering och aspektanalys av text på olika nivåer av granularitet. Vår modell syftar till att identifiera mycket informativa meningar som är aspekt-specifika i online anpassade recensioner. De främsta fördelarna med vår modell är tvåfaldiga: för det första utför den dokument-nivå och menings-känsla polaritet klassificering gemensamt; för det andra, den kan hitta informativa meningar som är nära relaterade till vissa aspekter i en översyn, vilket kan vara till hjälp för aspekt-nivå känsla analys såsom aspekt-orienterad sammanfattning. Den föreslagna metoden utvärderades med 9 000 kinesiska restaurang recensioner. Preliminära experiment visar att vår modell får lovande resultat. | Syftet med Ref är att hitta informativa meningar som är relaterade till vissa aspekter. | 17,435,844 | Fine Granular Aspect Analysis using Latent Structural Models | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,067 |
I denna uppsats analyserar vi tillväxtmönstren hos Donald Trumps anhängare (Trumpister, hädanefter) på Twitter. Vi bygger först en slumpmässig gångmodell med en tidstrend för att studera tillväxttrenden och effekterna av offentliga debatter. Vi analyserar sedan förhållandet mellan Trumps aktivitet på Twitter och tillväxten av hans anhängare. För det tredje analyserar vi effekterna av sådana kontroversiella händelser som kravet på muslimskt förbud och hans "schlonged" anmärkning. | Wang, Li och Luo REF studerar tillväxtmönstret hos Donald Trumps anhängare. | 16,216,249 | To Follow or Not to Follow: Analyzing the Growth Patterns of the Trumpists on Twitter | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,068 |
Abstract-We föreslår en ny betalningsbaserad incitamentsmekanism för peer-to-peer (P2P) live media streaming. Med hjälp av detta tillvägagångssätt tjänar kamrater poäng genom att vidarebefordra data till andra; dataströmningen är uppdelad i fasta längdperioder, under var och en av vilka kamrater konkurrerar med varandra för goda föräldrar (dataleverantörer) för nästa period i en första pris auktion liknande förfarande med hjälp av sina poäng. Vi utformar en distribuerad algoritm för att reglera kamrattävlingar, och överväga olika individuella strategier för föräldraval ur ett spelteoretiskt perspektiv. Vi diskuterar sedan möjliga strategier som kan användas för att maximera en kamrats förväntade mediekvalitet genom att planera olika bud för dess substreams. Slutligen, för att uppmuntra användare utanför sessionen att hålla sig online och fortsätta att bidra till nätverket, utvecklar vi en optimal strategi för data vidarebefordran som gör det möjligt för kamrater att samla poäng som kan användas i framtida tjänster. Simuleringsresultat visar att de föreslagna metoderna på ett effektivt sätt skiljer de mediekvaliteter som tas emot av kamrater som ger olika bidrag (som till exempel härrör från olika bandbredder för vidarebefordran eller servicetider) och samtidigt bibehåller en hög prestanda i hela systemet. | I REF föreslog författarna en betalningsbaserad incitamentsmekanism, där jämlikar tjänar poäng genom att ladda upp till andra jämlikar. | 6,234,552 | A Payment-based Incentive and Service Differentiation Mechanism for Peer-to-Peer Streaming Broadcast | {'venue': '200614th IEEE International Workshop on Quality of Service', 'journal': '200614th IEEE International Workshop on Quality of Service', 'mag_field_of_study': ['Computer Science']} | 6,069 |
Abstrakt. Sentimentanalys över Twitter erbjuder organisationer ett snabbt och effektivt sätt att övervaka allmänhetens känslor för sitt varumärke, sin verksamhet, sina chefer osv. Under de senaste åren har man med varierande resultat forskat om ett brett utbud av funktioner och metoder för att klassificera känslor för Twitter-dataset. I detta dokument introducerar vi en ny metod för att lägga till semantik som ytterligare inslag i utbildningen för känsloanalys. För varje extraherad enhet (t.ex. iPhone) från tweets, lägger vi till dess semantiska koncept (t.ex. "Apple-produkt") som ytterligare en funktion och mäta korrelationen mellan det representativa konceptet med negativa/positiva känslor. Vi tillämpar detta tillvägagångssätt för att förutsäga känslor för tre olika Twitter-dataset. Våra resultat visar en genomsnittlig ökning av F harmonisk noggrannhet poäng för att identifiera både negativa och positiva känslor på cirka 6,5% och 4,8% jämfört med baslinjerna för unigrams respektive del-av-tal funktioner. Vi jämför också mot en strategi baserad på känslobärande ämnesanalys, och finner att semantiska funktioner producerar bättre Recall och F poäng när man klassificerar negativa känslor, och bättre Precision med lägre Recall och F poäng i positiv känsla klassificering. | Hassan Saif m.fl. REF införde en ny metod för att lägga till semantik som ytterligare inslag i utbildningen för analys av känslor. | 16,794,622 | Semantic sentiment analysis of twitter | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,070 |
Abstrakt. Nya metoder till exempel-medveten semantisk märkning har förstärkt konvolutionella neurala nätverk (CNN) med komplexa multitask arkitekturer eller beräknings dyrt grafiska modeller. Vi presenterar en metod som utnyttjar ett helt konvolutionellt nätverk (FCN) för att förutsäga semantiska etiketter, djup och en instansbaserad kodning med hjälp av varje pixel riktning mot dess motsvarande instans centrum. Därefter använder vi datorseende tekniker på låg nivå för att generera toppmoderna instanssegmentering på gatuscenen datauppsättningar KITTI och Cityscapes. Vår strategi överträffar befintliga verk med stor marginal och kan dessutom förutsäga absoluta avstånd från enskilda instanser från en monokulär bild samt en pixel-nivå semantisk märkning. | I synnerhet, REF tränar ett nätverk för att förutsäga varje pixel riktning mot dess instans centrum tillsammans med monokulärt djup och semantisk märkning. | 5,571,650 | Pixel-level Encoding and Depth Layering for Instance-level Semantic Labeling | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,071 |
Navigering av informationsutrymmen är en viktig del av vår vardag, och för att utforma effektiva och användarvänliga informationssystem är det viktigt att förstå hur människor navigerar och hittar den information de söker. Vi utför en storskalig studie av mänsklig way finding, där, med tanke på ett nätverk av länkar mellan begreppen i Wikipedia, människor spelar ett spel för att hitta en kort väg från en given början till ett givet mål koncept genom att följa hyperlänkar. Det som skiljer vår installation från andra studier av mänskligt webb-browsing beteende är att i vårt fall människor navigera en graf av anslutningar mellan begrepp, och att det exakta målet för navigeringen är känt i förväg. Vi studerar mer än 30 000 målriktade mänskliga sökvägar och identifierar strategier som människor använder när de navigerar informationsutrymmen. Vi finner att människans sätt att hitta, även om de flesta är mycket effektiva, skiljer sig från kortaste vägar på karakteristiska sätt. De flesta ämnen navigerar genom höggradiga nav i det tidiga skedet, medan deras sökning styrs av innehållsfunktioner därefter. Vi ser också en kompromiss mellan enkelhet och effektivitet: begreppsmässigt enkla lösningar är vanligare men tenderar att vara mindre effektiva än mer komplexa lösningar. Slutligen anser vi att uppgiften att förutsäga målet en användare försöker nå. Vi designar en modell och en effektiv inlärningsalgoritm. Sådana prediktiva modeller av mänsklig way finding kan tillämpas i intelligenta webbgränssnitt. | Dessutom var en stor forskningsfråga av REF att "förstå hur människor navigerar och hittar den information de söker", medan vi i detta arbete är helt inriktade på att föreslå ett automatiskt verktyg för att bygga en utmanande måldrivna uppgifter för att designa och utvärdera artificiella intelligenta agenter. | 1,391,775 | Human wayfinding in information networks | {'venue': 'In WWW-12', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,072 |
Denna uppsats presenterar en innovativ modell av ett programs interna beteende över en uppsättning testingångar, som kallas den probabilistiska programberoende grafen (PPDG), som underlättar probabilistisk analys och resonemang om osäkra programbeteende, särskilt som förknippas med fel. PPDG är en ökning av det strukturella beroendet som representeras av ett programberoende diagram med uppskattningar av det statistiska beroendet mellan nodstater, som beräknas från testuppsättningen. PPDG bygger på den etablerade ramen för probabilistiska grafiska modeller, som i stor utsträckning används i tillämpningar som medicinsk diagnos. I detta dokument presenteras algoritmer för att konstruera PPDG och tillämpa PPDG på feldiagnos. I detta dokument presenteras också preliminära bevis som visar att PPDG kan underlätta fellokalisering och felförståelse. | Baah och al. REF använde probabilistisk analys i kombination med strukturella programberoenden (programberoende diagram), för att hjälpa fellokalisering. | 3,058,222 | The probabilistic program dependence graph and its application to fault diagnosis | {'venue': "ISSTA '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,073 |
Protocol Composition Logic (PCL) är en logik för att bevisa säkerhetsegenskaper hos nätverksprotokoll som använder offentlig och symmetrisk nyckel kryptografi. Logiken är utformad runt en process kalkyl med åtgärder för möjliga protokoll steg inklusive generera nya slumpmässiga tal, skicka och ta emot meddelanden, och utföra dekryptering och digitala signaturverifiering åtgärder. Bevissystemet består av axiom om enskilda protokoll åtgärder och slutsatser regler som ger påståenden om protokoll som består av flera steg. Även om påståenden är skrivna endast med hjälp av stegen i protokollet, logiken är sund i en stark mening: varje bevisbart påstående som omfattar en sekvens av handlingar innehar i ett protokoll kör som innehåller de givna åtgärderna och godtyckliga ytterligare åtgärder av en illvillig motståndare. Detta tillvägagångssätt låter oss bevisa säkerhetsegenskaperna hos de protokoll som attackeras samtidigt som vi endast resonerar om hederliga parters handlingar i protokollet. PCL stöder kompositions resonemang om komplexa säkerhetsprotokoll och har tillämpats på ett antal branschstandarder inklusive SSL/TLS, IEEE 802.11i och Kerberos V5. | En annan typ av arbete representeras av protokollets sammansättning Logic REF, som kan användas för att modulärt bevisa säkerhetsegenskaper protokoll med hjälp av en fast uppsättning primitiva. | 2,096,810 | Protocol Composition Logic (PCL) | {'venue': 'Electron. Notes Theor. Comput. Sci.', 'journal': 'Electron. Notes Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science']} | 6,074 |
Abstrakt. I detta dokument presenteras en modellteknik för texter som komplexa nätverk och en undersökning av sambandet mellan sådana näts egenskaper och upphovsmannens egenskaper. I ett experiment med flera böcker från 8 författare visar vi att de nätverk som produceras för varje författare tenderar att ha specifika funktioner, vilket tyder på att komplexa nätverk kan fånga författarens egenskaper och därför kan användas för den traditionella uppgiften att identifiera upphovsmän. | I REF-författarna undersöks korrelationen mellan nätverkens egenskaper och upphovsmannens egenskaper. | 12,752,656 | Some issues on complex networks for author characterization | {'venue': 'Inteligencia Artif.', 'journal': 'Inteligencia Artif.', 'mag_field_of_study': ['Computer Science']} | 6,075 |
Abstract-På bara några år cloud computing har blivit ett mycket populärt paradigm och en affärsframgång historia, med lagring är en av de viktigaste funktionerna. För att uppnå hög datatillgänglighet förlitar sig molnlagringstjänster på replikering. I detta sammanhang är uppgifternas enhetlighet en stor utmaning. I motsats till traditionella metoder som till största delen bygger på stark konsekvens väljer många molnlagringstjänster svagare konsekventa modeller för att uppnå bättre tillgänglighet och prestanda. Detta sker på bekostnad av en hög sannolikhet för att gamla data läses, eftersom de kopior som är inblandade i avläsningarna kanske inte alltid har den senaste skriften. I detta dokument föreslår vi ett nytt tillvägagångssätt, Harmony, som på ett anpassningsbart sätt justerar överensstämmelsenivån i körtid i enlighet med tillämpningskraven. Den viktigaste idén bakom Harmony är en intelligent skattning modell av gamla avläsningar, vilket gör det möjligt att elastiskt skala upp eller ner antalet repliker som är involverade i läsning operationer för att upprätthålla en låg (eventuellt noll) tolerabel fraktion av gamla avläsningar. Som ett resultat av detta kan Harmony uppfylla den önskade konsekvensen i applikationerna samtidigt som man uppnår goda resultat. Vi har implementerat Harmony och gjort omfattande utvärderingar med Cassandra molnlagring på Grid'5000 testbädd och på Amazon EC2. Resultaten visar att Harmony kan uppnå bra prestanda utan att överskrida det tolererade antalet gamla avläsningar. Till exempel, i motsats till den statiska slutliga konsistensen som används i Cassandra, minskar Harmony de gamla data som avläses med nästan 80% samtidigt som endast minimal latens läggs till. Samtidigt förbättrar det genomströmningen av systemet med 45% samtidigt som de önskade kraven på överensstämmelse i applikationerna bibehålls jämfört med den starka konsekvensmodellen i Cassandra. | En metod som kallas Harmony REF använder en intelligent skattningsmodell av gamla avläsningar som möjliggör en elastisk upp- eller nedskalning av antalet repliker som är involverade i läsning. | 6,479,406 | Harmony: Towards Automated Self-Adaptive Consistency in Cloud Storage | {'venue': '2012 IEEE International Conference on Cluster Computing', 'journal': '2012 IEEE International Conference on Cluster Computing', 'mag_field_of_study': ['Computer Science']} | 6,076 |
Närmaste granne klassificering förväntar sig klassen villkorliga sannolikheter att vara lokalt konstant, och lider av fördomar i höga dimensioner. Vi föreslår en lokalt anpassad form av närmaste granne klassificering för att försöka lindra denna förbannelse av dimensionalitet. Vi använder en lokal linjär diskriminant analys för att uppskatta ett effektivt mätvärde för datorkvarter. Vi bestämmer de lokala beslutsgränserna från centroidinformation, och sedan krymper stadsdelar i riktningar ortogonala till dessa lokala beslutsgränser, och förlänger dem parallellt med gränserna. Därefter kan alla kvartersbaserade klassificerare användas, med hjälp av de modifierade kvarteren. De bakre sannolikheterna tenderar att vara mer homogena i de modifierade kvarteren. Vi föreslår också en metod för att minska den globala dimensionen, som kombinerar information om den lokala dimensionen. I ett antal exempel, metoderna visar potentialen för betydande förbättringar jämfört med närmaste grannklassificering. Index Terms-Classification, närmaste grannar, linjära discriminant en,Alys, förbannelse över dimensionalitet. + - T. Hastie är med | Lokal linjär diskriminativ analys REF uppskattar en lokal avståndsmätare med hjälp av den lokala linjära diskriminantanalysen. | 2,354,883 | Discriminant adaptive nearest neighbor classification | {'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']} | 6,077 |
Abstract-We ger den första kapaciteten annalkande kodning system som robust simulerar alla interaktiva protokoll över en kontradiktorisk kanal som korrumperar någon bråkdel av de överförda symbolerna. Våra kodningsprogram uppnår en kommunikationshastighet på 1 − O( log 1/ ) över alla kontradiktoriska kanaler. Detta kan förbättras till 1 − O( ε ) för slumpmässiga, omedvetna och beräkningsbundna kanaler, eller om parterna har delat slumpmässighet okänd för kanalen. Förvånansvärt nog överstiger dessa kurser de 1 -----( H( ) = 1 ----( log 1/ ) interaktiv kanalkapacitetsbindningar som [Kol och Raz; STOC'13] nyligen bevisade för slumpmässiga fel. Vi förmodar att 1 − till ( log log 1/ ) och 1 − på att vara den optimala hastigheten för deras respektive inställningar och därför att fånga den interaktiva kanalkapaciteten för slumpmässiga och kontradiktoriska fel. Förutom att vara mycket kommunikation effektiv, våra randomiserade kodningsprogram har flera andra fördelar. De är beräkningseffektiva, extremt naturliga och betydligt enklare än tidigare (icke-kapacitet närmar sig) system. I synnerhet, våra protokoll använder inte någon kodning men tillåter det ursprungliga protokollet att utföras som-är, interspersed endast genom korta utbyten av hash värden. När hashvärden inte matchar, partierna backtrack. Vår strategi är, som vi känner, den absolut enklaste och mest naturliga förklaringen till varför och hur robust interaktiv kommunikation i en bullrig miljö är möjlig. | När buller är kontradiktoriskt snarare än slumpmässigt ökar avmattningen till 1 + O ( ε log log 1/ε) REF. | 15,507,375 | Interactive Channel Capacity Revisited | {'venue': '2014 IEEE 55th Annual Symposium on Foundations of Computer Science', 'journal': '2014 IEEE 55th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,078 |
Mänskliga handlingar kan representeras av skelettledernas banor. Traditionella metoder modellerar i allmänhet den rumsliga strukturen och temporal dynamiken hos det mänskliga skelettet med handgjorda egenskaper och känner igen mänskliga handlingar genom väl utformade klassificeringar. I detta dokument, med tanke på att återkommande neurala nätverk (RNN) kan modellera den långsiktiga kontextuell information av temporal sekvenser väl, föreslår vi en end-to-end hierarkisk RNN för skelettbaserade åtgärder erkännande. Istället för att ta hela skelettet som ingång, delar vi upp det mänskliga skelettet i fem delar enligt människans fysiska struktur, och matar sedan dem separat till fem subnät. Allteftersom antalet lager ökar, är de representationer som extraheras av subnäten hierarkiskt sammansmälta för att vara ingångar av högre skikt. De slutliga representationerna av skelettsekvenserna matas in i ett enda lager perceptron, och den tidsmässigt ackumulerade produktionen av perceptronet är det slutliga beslutet. Vi jämför med fem andra djupa RNN-arkitekturer som härletts från vår modell för att verifiera effektiviteten i det föreslagna nätverket, och även jämföra med flera andra metoder på tre allmänt tillgängliga dataset. Experimentella resultat visar att vår modell uppnår den toppmoderna prestandan med hög beräkningseffektivitet. | I REF, skelett leder delas in i fem uppsättningar som motsvarar fem kroppsdelar. | 8,040,013 | Hierarchical recurrent neural network for skeleton based action recognition | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,079 |
Abstract-In overdeployed sensor nätverk, en metod för att spara energi är att hålla bara en liten del av sensorerna aktiva när som helst. I den här artikeln, vi anser problemet med att välja en minsta storlek ansluten K-omslag, som definieras som en uppsättning sensorer M sådan att varje punkt i sensornätverket "täcks" av minst K olika sensorer i M, och den kommunikationskurva som induceras av M är ansluten. För ovanstående optimeringsproblem designar vi en centraliserad approximationsalgoritm som levererar en nära-optimal (inom en faktor av O (lgn)) lösning och presenterar en distribuerad version av algoritmen. Vi presenterar också en kommunikationseffektiv lokaliserad distribuerad algoritm som empiriskt visat sig fungera bra. | Det har visat sig att välja en minsta delmängd av sensorer för att k-täcka ett fält från en redan utplacerad uppsättning sensorer är NP-hård REF. | 75,346 | Connected K-coverage problem in sensor networks | {'venue': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'journal': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'mag_field_of_study': ['Computer Science']} | 6,080 |
Abstrakt. I detta dokument presenterar vi resultat från en omfattande mätningsstudie av trådlös bandbreddsuppskattning i IEEE 802.11 WLAN med hjälp av den distribuerade samordningsfunktionen. Vi visar att ett antal kända iterativa probing metoder, som bygger på antagandet om första till kvarn schemaläggning, kan förväntas rapportera den rättvisa bandbredden andel av ett nytt flöde snarare än den tillgängliga bandbredden. Våra mätresultat bekräftar denna vy och vi drar slutsatsen att under nuvarande sondgap och sondhastighetsmodeller kan den rättvisa andelen endast vara löst relaterad till den tillgängliga bandbredden. Liksom några andra studier rapporterar vi att paketstorlekar har en enorm inverkan på bandbreddsberäkningar. Till skillnad från dessa studier kan vi dock visa att mindre ändringar av kända metoder för trådbundna nätverk, såsom Pathload, kan lösa tidigare angivna begränsningar av dessa metoder i trådlösa nätverk. | Att använda (3) i rättvisa kösystem ger dock varken den tillgängliga bandbredden eller den rättvisa andelen REF. | 15,213,322 | A measurement study of bandwidth estimation in IEEE 802.11g wireless LANs using the DCF | {'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,081 |
Vi introducerar en enkel och effektiv metod för att legalisera stora konvolutionella neurala nätverk. Vi ersätter den konventionella deterministiska pooling verksamheten med en stokastisk procedur, slumpmässigt plocka aktiveringen inom varje pooling region enligt en multinomial fördelning, ges av aktiviteterna inom pooling regionen. Approachen är hyperparameterfri och kan kombineras med andra legaliseringsmetoder, såsom avhopp och dataförstärkning. Vi uppnår state-of-the-art prestanda på fyra bilddatauppsättningar, i förhållande till andra metoder som inte använder dataförstärkning. | Stochastic Pooling REF väljer slumpmässigt aktivering från en multinomal fördelning under träningen, som är parameterfri och kan tillämpas med andra legaliseringstekniker. | 6,949,717 | Stochastic Pooling for Regularization of Deep Convolutional Neural Networks | {'venue': 'ICLR', 'journal': 'CoRR', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,082 |
Abstract-Vi introducerar en ny rik lokal deskriptor av en bildpunkt, vi kallar (märkta) avstånd set, som bestäms av det rumsliga arrangemanget av bildfunktioner runt den punkten. Vi beskriver ett tvådimensionellt (2-D) visuellt objekt med de uppsättningar (märkta) avståndsuppsättningar som är förknippade med objektets funktionspunkter. Baserat på en olikhetsåtgärd mellan (märkta) avståndsuppsättningar och en olikhetsåtgärd mellan uppsättningar (märkta) avståndsuppsättningar, tar vi itu med två problem som ofta förekommer i objektigenkänning: objektsegmentering, där vi formulerar ett avståndsuppsättningar formfilter, och formmatchning. Användningen av formfiltret illustreras på tryckt och handskriven teckenigenkänning och upptäckt av trafikskyltar i komplexa scener. Formjämförelseförfarandet illustreras på handskriven teckenklassificering, COIL-20 databas objektigenkänning och MPEG-7 siluett databas hämtning. | Avståndsuppsättningar REF föreslår en rik lokal deskriptor för en bildpunkt med hjälp av den rumsliga konfigurationen av funktionspunkter som omger den punkten, där den rumsliga arrangemanget kännetecknas av uppsättningen av avståndet mellan den punkten med funktionspunkter i sitt grannskap. | 9,375,362 | Distance sets for shape filters and shape recognition | {'venue': 'IEEE TRANS. IMAGE PROCESSING', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,083 |
Abstract-This paper presenterar en metod för självkalibrering av olika interna kameraparametrar som bygger på kvasi-affin rekonstruktion. I ett stratifierat tillvägagångssätt för självkalibrering erhålls en projektiv rekonstruktion först och detta förfinas successivt först till en afffin och sedan till en euklideisk återuppbyggnad. Man har observerat att det svåra steget är att få den affina rekonstruktionen, eller motsvarande för att lokalisera planet i oändlighet i den projektiva koordinatramen. Så, en kvasi-affin rekonstruktion erhålls först genom bildsekvenser, då kan vi få det oändliga planet i kvasi-affin rymden, och motsvarande affin rekonstruktion. Sedan den oändliga homografi matrisen kan beräknas genom affin rekonstruktion, och sedan använda den oändliga homografi matris och begränsningar av bilden av absolut konik för att beräkna kamerans interna parametrar matris, och vidare för att mäta den metriska rrekonstruktion. Denna metod kräver inte en speciell scen begränsningar (såsom rappell, vinkelrät) information, och även kameran rörelseinformation (såsom ren översättning eller ortogonal rörelse), för att uppnå målet självkalibrering. Teoretikanalysen och experimenten med verkliga data visar att denna självkalibreringsmetod är tillgänglig, stabil och robust. | Den idé som diskuteras i REF är baserad på den kvasi-affin rekonstruktion; kameran inneboende parametrar uppskattas efter denna rekonstruktion, som utförs från homografi matris av planet i oändlighet, och begränsningar på bilden av den absoluta konic. | 2,374,284 | Self-calibration of Varying Internal Camera Parameters Algorithm Based on Quasi-affine Reconstruction | {'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']} | 6,084 |
Vi studerar problemet med grafpartitionering, eller klusterbildning, i glesa nätverk med tidigare information om kluster. Specifikt, vi antar att för en bråkdel ρ av noderna de verkliga kluster uppdrag är kända i förväg. Detta kan förstås som en halvövervakad version av klusterbildning, i motsats till oövervakad klusterbildning där den enda tillgängliga informationen är grafstrukturen. I det oövervakade fallet är det känt att det finns en tröskel för den inter-cluster-anslutning över vilken kluster inte kan upptäckas. Här studerar vi effekten av tidigare information om detektionströskeln och visar att även minimala [men generiska] värden på ρ > 0 förskjuter tröskeln nedåt till dess lägsta möjliga värde. För viktade grafer visar vi att en liten semi-övervakning kan användas för en icke-trivial definition av samhällen. Diagramdelning är ett viktigt problem med ett brett spektrum av tillämpningar inom kretsdesign, samhällsvetenskap, datautvinning m.m. I samband med analys av sociala nätverk är detta problem mer känt som community detection, där gemenskapen löst definieras som en grupp av noder så att länktätheten inom gruppen är högre än mellan olika grupper. Många verkliga nätverk har en välhanterlig samhällsstruktur [1], och mycket ny forskning har fokuserat på att utveckla metoder för att upptäcka i samhället (se [2] för en översyn). Ett gemensamt kännetecken för många av dessa metoder är förekomsten av en tröskel i samverkan mellan samhällen bortom vilken samhällen inte kan upptäckas [3, 4]. Detta problem har studerats genom att formulera gemenskapsdetektionen som en minimering av en viss Potts-Ising Hamiltonian [4, 5]. Det har visat sig att grafen partitionering problemet verkligen kännetecknas av en fas övergång från detekterbara till odetekterbara system som man ökar kopplingen styrka mellan kluster [4]. De flesta arbeten hittills har betraktat oövervakad version av klusterbildning, där den enda tillgängliga informationen är grafstrukturen. I många situationer kan man dock ha ytterligare information om eventuella klustertilldelningar av vissa noder. Denna version av problemet har väckt intresse för maskininlärning gemenskapen, i samband med grafbaserade halvövervakade lärande och klassificering (se [6] för en nyligen genomförd undersökning). I denna inställning, antar man att förutom grafstrukturen, har man också viss tidigare information om kluster-medlemskap av en uppsättning noder [7, 8]. Vårt syfte är att presentera en teoretisk analys av den halvövervakade versionen av gemenskapens detekteringsproblem för enkla, bi-community nätverk, och att avslöja nya scenarier för detektering av samhället underlättas av semi-övervakning. Förlaga. Betrakta en Erdös-Rényi graf: varje par av noder är kopplad med sannolikhet α/N, där N är antalet noder i graferna. Varje länk ges en vikt J > 0. Föreställ dig nu ett par av en sådan identisk Erdös-Rényi graf, som modellerar två kluster (kommuner). Förutom intra-cluster J-länkar är varje nod i en graf kopplad med sannolikhet γ/N med noder i den andra grafen. Var och en av dessa inter-cluster länkar ges en vikt K > 0. För tydlighetens skull antas både J och K vara heltalsnummer. Denna planterade bisektionsgraf modell kommer att användas för att studera prestandan hos kluster detektionsmetoden, som placerar en Ising spinn på varje nod och låter dessa spins interagera via nätverkslänkarna [4, 5] : där vi har gjort bi-cluster typ av nätverket explicit genom att införa separata spin variabler s i = ±1 ochs i = ±1 (i = 1,..., N) för två kluster. Här J ij och J ij är identiska och självständigt fördelade slumpvariabler som antar noll med sannolikhet 1 − α N och J > 0 med sannolikhet α N. Likaså, K ij identiska och oberoende är lika med noll med sannolikhet 1 − γ N och till K > 0 med sannolikhet γ N. För att genomdriva equipment, Hamiltonian (1) kommer att studeras under begränsningen Således, att upptäcka tecknet på en given spin s i vid noll temperatur (så att utesluta alla termiska fluktuationer) kan vi dra slutsatsen vilken kluster motsvarande nod hör: alla spins som har lika tecken tillhör samma kluster. Felsannolikheten p e för klustertilldelningen är där m är (enkel-kluster) magnetisering,. .. T =0 är nolltemperatur Gibbs-medelvärdet, d.v.s. Genomsnittet för alla konfigurationer av snurrar som i termodynamiskt begränsar den minimala energi som ges av (1, 2), och där [. ..] av är genomsnittet över bi-grafstrukturen, dvs. över {J ij}, {J ij} och {K ij}. Som antyds av själv-genomsnitt funktionen, i stället för att ta [. ..] av, Vi kan utvärdera s i T =0 på den mest sannolika bi-graf struktur(er). | Allahverdyan m.fl. REF studerade problemet med halvövervakad grafklustring genom att integrera kända klusteruppdrag för en bråkdel av noderna. | 6,227,151 | Community Detection with and without Prior Information | {'venue': 'Europhysics Letters 90, p.18002, 2010', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Biology']} | 6,085 |
Även om forskningen på andra språk ökar, har en stor del av arbetet i subjektivitetsanalys tillämpats på engelska data, främst på grund av den stora mängden elektroniska resurser och verktyg som finns tillgängliga för detta språk. I detta dokument föreslår och utvärderar vi metoder som kan användas för att överföra en databas över subjektivitetsresurser över språk. Särskilt försöker vi utnyttja de resurser som finns tillgängliga för engelska och, genom att använda maskinöversättning, generera resurser för subjektivitetsanalys på andra språk. Genom jämförande utvärderingar på två olika språk (romska och spanska) visar vi att automatisk översättning är ett praktiskt alternativ för uppbyggnad av resurser och verktyg för subjektivitetsanalys i ett nytt målspråk. | Automatisk översättning är ett praktiskt alternativ för konstruktion av resurser och verktyg för subjektivitets- eller känsloanalys i ett nytt resursbegränsat språk med hjälp av ett resursrikt språk som utgångspunkt REF. | 2,432,354 | Multilingual Subjectivity Analysis Using Machine Translation | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,086 |
Även om information, nyheter och åsikter ständigt cirkulerar i det globala sociala nätverket, har den faktiska mekaniken i hur en enda informationsbit sprids i global skala varit ett mysterium. Här spårar vi sådana informationsspridningsprocesser på person-för-person-nivå med hjälp av metoder för att rekonstruera spridningen av massivt spridda Internet kedjebokstäver. Vi finner att i stället för att fantisera vitt och brett, nå många människor i mycket få steg enligt "småvärldens" principer, fortsätter utvecklingen av dessa kedjebokstäver i ett smalt men mycket djupt trädliknande mönster och fortsätter i flera hundra steg. Detta tyder på en ny och mer komplex bild av informationsspridningen genom ett socialt nätverk. Vi beskriver en probabilistisk modell baserad på nätverkskluster och asynkrona svarstider som producerar träd med denna karakteristiska struktur på sociala nätverksdata. sociala nätverk, algoritmer, epidemier, spridning i nätverk, spridning av information är en allestädes närvarande process i mänskliga sociala nätverk. Det spelar en grundläggande roll i miljöer som inkluderar spridning av tekniska innovationer (1, 2), wordof-mouth effekter i marknadsföring (3-5), spridning av nyheter och åsikter (6-8), kollektiv problemlösning (9, 10) och provtagningsmetoder för dolda populationer (11, 12). De grundläggande modellerna för att studera sådana fenomen poserar att information kommer att sprida sig från person till person i en epidemis stil (13-16), expanderar kraftigt i ett kort antal steg enligt "småvärldens" principer (17, 18). Trots nyligen genomförda studier inom online-domäner (5) (6) (7) (8), har det varit svårt att få detaljerade spår av spridningen av en enda nyhet eller information på en global skala för att bedöma prognoserna för dessa modeller. Som sådan har det förblivit en öppen fråga om spridningen av information verkligen fortsätter med en snabb, epidemisk fan-out eller om den följer en potentiellt mer komplex struktur. Skillnaden mellan dessa möjligheter får konsekvenser inte bara för de modeller som används för att fånga deras väsentliga egenskaper utan också potentiellt för "livscykeln" av en bit information som sprids genom det globala sociala nätverket. Här spårar vi dessa typer av storskaliga informationsspridningsprocesser på person-för-person-nivå med hjälp av metoder för att rekonstruera spridningen av massivt spridda Internet kedjebrev, och från dessa observationer föreslår vi en ny uppsättning principer för hur sådana processer fungerar. Vi fokuserar särskilt på två sådana kedjebokstäver, som uppvisar trädliknande spridningsmönster som är ganska lika varandra men som till en början ligger i linje med den intuitiva bilden av hur information sprids i dessa miljöer. I stället för att expandera till många individer i några få steg är träden mycket smala och fortsätter att nå människor flera hundra nivåer djupt. Vi beskriver en matematisk modell som producerar träd med denna karakteristiska struktur, som i grunden grundar sig på observationer om att sociala nätverk är mycket kluster och att information kan ta mycket varierande tid att korsa olika kanter i nätverket. Modellens enkla struktur, och det faktum att den bygger på tidigare empiriska studier av människans reaktionstider (19 -21), antyder således en möjlig grund för denna snäva och djupgående informationsöverföringsstil i den lokala kommunikationsdynamiken inom högt klustererade sociala nätverk. För att rekonstruera fall där specifika delar av information sprids genom stora, globalt distribuerade populationer, analyserade vi spridningen av framställningar som cirkulerade brett i kedjebrev form på Internet under de senaste åren. I framställningarna uppmanas varje mottagare att foga sitt namn till en kopia av brevet och sedan vidarebefordra det till vänner. Varje kopia kommer således att innehålla en lista över personer, som representerar en viss sekvens av vidarebefordran av meddelandet; och därför kommer olika kopior att innehålla olika men överlappande listor över människor, som återspeglar de vägar de följde till sina respektive nuvarande mottagare. Denna vidaresändningsprocess är en lättigenkännlig mekanism genom vilken skämt och tidningsklipp också kan nå bred spridning via det globala e-postnätverket; de uttryckliga förteckningarna över namn i petitionsformatet gör det dock mycket lättare att spåra spridningen av budskapen. Det huvudsakliga kedjebrev som vi analyserar bygger på en omfattande framställning från 2002-2003 som påstår sig organisera oppositionen mot det annalkande kriget i Irak. Vi fick kopior via Internet sökningar av sändlistearkiv där de var offentligt utlagda; dessa sökningar resulterade i 637 kopior med distinkta kedjor av mottagare, som representerar nästan 20 000 olika signatärer totalt. [Se tilläggsinformation (SI) Bilaga för detaljerna i datainsamlingsprocessen.] Vi gjorde en liknande analys för ett andra kedjebrev, en petition som började cirkulera 1995, som påstods organisera politiskt stöd för fortsatt statlig finansiering av National Public Radio (NPR) och Public Broadcasting System (PBS). På liknande sätt som för Iraks framställning förvärvade vi 316 olika exemplar av NPR-ansökan, omfattande totalt 13 052 personer. Spridningen av de två kedjebreven uppvisade kvalitativt mycket likartade strukturer, och för diskussionen här fokuserar vi på analysen av kedjebreven i samband med Irakframställningen. Även om båda framställningarna i själva verket hade sitt ursprung i bluffar och naiva missförstånd, som en stor del av de mest utbredda Internet kedjebrev gör (22, 23), är detta faktum oväsentligt för våra syften, särskilt eftersom nästan alla undertecknare av var och en verkade tro att de är äkta; därför studerar vi verkliga fall av spridning av enskilda bitar av information längs länkar i det globala sociala nätverket. Människor kan i allmänhet få en kopia av kedjebrevet flera gånger, men om varje tillägg hans eller hennes namn till bara en kopia, då den fullständiga spridningen av bokstaven kan representeras som en trädstruktur: mottagare är noder, upphovsmannen är roten, och nod w är ett barn av nod v om w bifogar sitt namn direkt under v's. Dessutom, om så är fallet, då varje kopia av bokstaven representerar en stig genom förökningsträdet, och den observerbara delen av trädet kan rekonstrueras helt enkelt genom att ersätta dessa stigar ( Bild. 1 A och B). Kontrollen av kedjebokstäverna visar att mottagarna i den observerbara delen verkade nästan jämnt vidarebefordra bokstaven bara en gång, och därför ger rekonstruktionen av ett träd en rimlig approximation till den faktiska förökningsprocessen. Men överpositionen av listorna på de 637 bokstäverna avviker från en trädstruktur på grund av omfattande buller i data: Vissa mottagare omordnade listan över namn på sin kopia av bokstaven på ett sätt som nära motsvarar de typer av kromosomala omarrangemang man finner på grund av sekvensmutation händelser i biologiska inställningar (24, 25) (Fig. 1C)........................................................................................................... Vi observerade exempel på punktmutationer (i vissa petitionskopior ersattes namnen med namnen på politiska figurer), införande/deletion händelser (det fanns ett antal små block med 1-5 namn som fanns i mitten av listan i vissa petitionskopior och frånvarande i andra kopior), duplicering händelser (block med 2-20 namn som duplicerades i vissa petitionskopior, ibland omedelbart intill listan och ibland hundratals namn senare), block omarrangemang (i en petition, två par block med 2-3 namn byttes i förhållande till deras position i alla andra kopior som innehöll samma namn), och en hybridisering händelse (namnen i slutet av två kopior av petitionen blandades samman efter deras gemensamma prefix i en tredje kopia). För att rekonstruera en approximation till den verkliga förökningsprocessen från data, måste vi alltså härleda ett träd i närvaro av dessa källor av buller, och vi utför denna slutsats enligt följande ( Bild. 1 D och E). Vi börjar med att representera den observerade spridningen av bokstaven med hjälp av en struktur mer komplex än ett träd, nämligen en riktad graf G på den uppsättning mottagare där det finns en kant e... (v, w) när w visas direkt efter v på minst en lista. I fallet Irak kedjebrev, denna graf G har 19,302 distinkt namn och 19,784 kanter, där vi tillämpade en heuristisk baserat på sekvens anpassning (24, 25) för att deklarera två namn med en gemensam lista föregångare och mycket små typografiska variationer att vara likvärdiga. (Ett pseudonymiserat exempel från data är utseendet i olika kopior av undertecknarna "John Smith Santa Monica Calif", "John Smith Santa Monica USA" och "John Smith Santa Monica Calif USA" med identiska föregångare och efterträdare.) Manuell inspektion bekräftade att denna heuristiska inte i allmänhet sammanflätade två skilda personer som hade samma föregångare. Eftersom varje träd på denna nod uppsättning skulle ha 19,301 kanter (en mindre än antalet noder), måste vi ta bort ett proportionellt litet antal kanter (483) från grafen G för att producera ett träd. Vi gör denna radering på ett sätt som tar bort länkar som är oförenliga med ett träd på minsta möjliga sätt. Specifikt, för varje kant e (v, w), definierar vi bevis för e att vara antalet distinkta kopior av petition som uppvisar kant e. Med hjälp av bevisen för varje kant som sin vikt, beräknar vi en riktad spanning träd av G (även känd som en grenning eller arborescence) av maximal möjlig vikt; denna beräkning kan göras effektivt på skalan av våra data med hjälp av en algoritm på grund av Edmonds (26). (Vi använder ett genomförande från LEMON-projektet, http://lemon.cs.elte.hu.) Vi producerar alltså ett träd i vilket det totala beviset för alla kanter, enligt vår definition, är så stort som möjligt. Slutligen, efter byggandet av det spännande trädet, ligger vissa noder inte längre på en stig från rotnoden till en individ som postade sin kopia av brevet. Vi tar bort sådana noder, producerar det sista trädet vi använder för vår analys; detta träd innehåller 18,119 totala noder med 557 blad, alla som postade sin kopia av brevet, och 63 interna noder som också postade. Kontrollen av de få meddelanden som innehöll intakta adressatlistor visar att mottagarna i allmänhet vidarebefordrade kopior av brevet till ett stort antal andra personer. Denna iakttagelse är förenlig med en form av informationsspridning där varje person, efter att ha fått informationen, fortsätter att informera ett stort antal av sina grannar i det sociala nätverket. Epidemiska modeller baserade direkt på denna observation tyder på att förökningsträdet, om det inte dör ut snabbt, bör ha noder med många barn och mycket korta vägar från roten. Trädet rekonstrueras från data, dock avslöjar en struktur som är mycket annorlunda från den bild som föreslås av enkla epidemi modeller: medianavståndet till roten över alla noder är nästan 300, och 90% av noderna har exakt ett barn. Bilda. 2 skildrar hela trädet, med en inzoomad bild av trädet i Bild. 3 Den fullständiga uppsättningen framställningar kopior får inte resultera i ett träd på grund av sekvens omarrangemang inklusive punktmutation, införlivande, och block insättning / radering i vissa kopior av listorna. För att hantera mindre variationer i undertecknarnas namn i olika petitionskopior ersattes namnen på undertecknarna med unika identitetsbeteckningar. Vi anser att två namn som inte är identiska är likvärdiga om de föregås av likvärdiga namn och deras namn ligger inom en liten gräns för redigeringsavstånd. (D) Det nätverk som blir resultatet kan avvika från en trädstruktur. Vikten bredvid varje kant anger antalet framställningar som uppvisar denna kant). (E) Ett träd bildas från detta nätverk genom att (i) köra en maximal vikt spännande arborescence algoritm, som skär anslutningar oförenliga med ett träd på minsta möjliga sätt, med hjälp av ovanstående vikter, och (ii) beskärning av noder som inte är på en väg från roten till en skuggad grå nod. 4634 och Kleinberg utan korrigering för buller, även om det avviker från en exakt trädtopologi, uppvisar en kvalitativt mycket liknande struktur, vilket tyder på att dessa egenskaper är inneboende i spridningen av kedjebrevet, och inte en artefakt av återuppbyggnadsprocessen. Dessutom visas kvalitativt liknande strukturer i spridningen av andra storskaliga kedjebrev för vilka vi har data. (Se SI-bilagan för mer detaljer och en bild av trädet i samband med denna andra kedjebokstäv.) Att förstå varför de rekonstruerade träden har denna ovanliga struktur utgör således en utmaning.I motsats till resultaten av både äldre och nyare storskaliga småskaliga experiment (17, 27), där inga kedjor sprang i mer än några steg, har vi ett fall där de flesta kedjor är hundratals steg långa och de flesta mottagare producerar exakt ett barn i det observerbara trädet. Hur kunde en sådan struktur uppstå? Med mer detaljerad information om e-postmeddelanden själva-till exempel, med kompletta meddelandehuvuden som visar adressatlistor och tidsstämplar-vi kan börja härleda inte bara trädstrukturen utan också sekvenser av åtgärder som vidtas av individer för att vidarebefordra brevet. Men, vi har mycket få meddelanden med sådana rubriker och nästan inga par som är nära tillsammans i trädet (som skulle behövas för att börja dra en sekvens av åtgärder genom att direkt kommunicera individer); främst, vi har bara sekvenser av namn från de olika bokstäverna. Som ett resultat, vi ramar upp problemet med att modellera trädet enligt följande: Finns det en klass av enkla och rimliga generativa processer som, när de körs på verkliga sociala nätverk, producerar syntetiska träd av den karakteristiska struktur vi observerar-djupa, smala, och med de flesta noder har ett barn? Ett negativt svar skulle antyda att det vi ser är resultatet av oobserverade idiosynkrasier i det kollektiva beteende som producerade listorna. Om svaret är positivt hävdar den dock att denna typ av struktur i själva verket kan uppnås genom naturliga mekanismer, vilket tyder på att djupa överföringsmönster i själva verket är en robust form av informationsspridning och potentiellt fokusera sökandet efter mer detaljerade teorier om varför vi observerar det i verkliga livet. För att utvärdera modeller för meddelandeframkallning som kan fånga de strukturella egenskaperna hos det observerade trädet simulerar vi en sekvens av probabilistiska modeller på ett socialt nätverk med 4,4 miljoner individer samlade från onlinegemenskapen LiveJournal (LJ). Tidigare forskning har visat att detta nätverk har egenskaper som överensstämmer med andra storskaliga sociala nätverk, och organisationen av online-länkarna är jämförbar med de e-postkontaktlistor som användes för att sprida kedjebrevet (28, 29). För att undvika att förlita sig på ett enda modellnätverk utför vi dock också simuleringarna på två andra källor av verkliga sociala-interaktionsdata, från olika domäner: kommunikationsnätverket för Wikipedia redaktörer, och det co-authorship nätverk byggt från en stor bibliografisk databas (DBLP) av data science författare. Resultaten på dessa nätverk är kvalitativt nära förenliga med de resultat vi rapporterar nedan för LJ, men skalas ner eftersom Wikipedia- och DBLP-nätverken var och en bara ungefär en tiondel av storleken på LJ. Det faktum att vi får liknande resultat från simuleringar på olika datauppsättningar tyder på att vi observerar egenskaper hos själva den probabilistiska processen och inte de specifika nätverk som den körs på. Våra modeller kommer att starta på en slumpmässigt vald inledande nod och konstruera träd som sprider sig utåt från denna nod, med delar av trädet synliggjort av några noder som postar sin kopia av meddelandet. Vi kommer sedan att bedöma hur nära strukturen hos den observerbara delen av de konstruerade träden liknar förökningsträdet i den verkliga kedjebokstaven, med hjälp av tre mått: mediannodens djup, bredden och fraktionen av noder med exakt ett barn. Här definieras djupet av en nod som dess avstånd från roten, och ett träds bredd definieras som den maximala storleken på en uppsättning noder som alla har samma djup. I samtliga fall kommer mätvärdena att beräknas över flera oberoende simuleringar på LJ-nätverket: Varje simuleringskörning fortsätter tills det observerbara trädet först når storleken på det verkliga förökningsträdet med kedjebokstäver, Bild. 2............................................................... Träd som härletts från en storskalig kedjebrevsansökan som protesterade mot början av kriget i Irak, producerad enligt bild. 1................................................................ Detta träd har 18,119 noder, varav 17,079 (94,26 %) har exakt 1 barn. Mediannoden djup är 288 och bredden på trädet är 82. och de runningar där trädet misslyckas att nå denna storlek utelämnas. Att utelämna simulerade träd som inte växer tillräckligt stora är förenligt med vårt mål att studera egenskaper informationsspridning villkorad av att nå en stor befolkning; i verkliga livet, de flesta cirkulerade e-postmeddelanden aldrig brett ut, men vi är intresserade av strukturen hos dem som gör det. Våra modeller innehåller alla följande två principer: Många mottagare kan välja att inte vidarebefordra brevet alls, och bara ett fåtal mottagare kommer att välja att posta brevet offentligt. Således introducerar vi en kasserings-rate parameter på vilket sannolikheten för att en viss mottagare kastar meddelandet och inte vidtar några ytterligare åtgärder på det, och en post-rate parameter, ange sannolikheten att varje mottagare postar sin kopia av brevet offentligt. I enlighet med resultaten från tidigare experiment baserade på e-post vidarebefordring (27) sätter vi kasseringsprocenten till standardvärdet 0,65, även om vi finner att rimliga variationer inte kvalitativt ändrar resultaten. Posträntan är en parameter som vi mer explicit kommer att variera. Public posting är det enda sätt på vilket delar av trädet blir observerbar: När en mottagare postar brevet, hans eller hennes fullständiga väg från roten blir synlig, och därmed i allmänhet en nod på trädet är observerbar i slutet av processen om och endast om en av dess ättlingar postat en kopia av brevet. Vi kommer att studera strukturen av de observerbara delarna av de träd som produceras av våra modeller, som vi gör med verkliga kedjebokstäver. Vi överväger först en modell baserad på en direkt tillämpning av dessa probabilistiska ingredienser. Vi väljer en slumpmässig rotnod och konstruerar ett träd i takt med tiden. I varje steg, varje ny mottagare av brevet kasserar det oberoende med sannolikhet och annars vidarebefordrar det till alla grannar (posta med sannolikhet ). Varje granne som inte har fått brevet tidigare blir en ny mottagare i nästa steg; om w får brevet från flera avsändare, väljer den godtyckligt en av dessa avsändare som sin förälder i trädet. Slutligen, när processen avslutas, tittar vi på den observerbara delen av trädet, bestående av föreningen av alla vägar från roten till noderna som postade sin kopia av brevet. Även om en sådan modell är mycket naturlig, producerar den träd som dåligt kan jämföras med de verkliga kedjebokstäverna. Simulera denna modell på LJ-nätverket, den observerbara delen av trädet har ett mediandjup 5.0, bredd 9,625, och enbarnsfraktion 19,04% (i genomsnitt över 10 oberoende körningar) med 0,10, och mycket liknande egenskaper för andra små värden av. Denna stora skillnad från den verkliga data kan inte åtgärdas helt enkelt genom att mottagarna skickar till en mindre uppsättning av grannar; om varje mottagare som vidarebefordrar gör det till en slumpmässig delmängd av 4 eller 5 av hans eller hennes grannar, då bredden förblir i tusentals, mediandjupet förblir 50, och enbarnsfraktionen är fortfarande 70%. Det centrala problemet är att denna typ av slumpmässig epidemisk process verkar oförmögen att producera träd vars observerbara delar är mycket stora, men med ett antal barn per nod så starkt koncentrerad runt 1. Liben-Nowell och Kleinberg För att producera träd som ungefär motsvarar kedjebokstavsdata, introducerar vi ytterligare två tillägg till mekanismen. Den första av dessa förlängningar baseras på asynkron responstid. I stället för att anta att bokstaven sprider sig i fasta steg enhet tid, modellerar vi varje mottagare som väntar en lång tid innan de agerar på meddelandet, där distribueras enligt densitetsfunktionen f(x). Detta stämmer överens med resultaten från nyligen genomförda studier av människans svarstider på ett spektrum av kommunikationstyper inklusive e-post (19-21), som finner sådana distributioner med exponenter som sträcker sig mellan 1 (med cut-off) och 3/2. Vi finner att våra resultat förblir kvalitativt konsekventa inom detta område; för de resultat som beskrivs här, använder vi 3/2 som standard. Specifikationen för modellen med asynkron responstid är följande. Tiden fortskrider kontinuerligt, snarare än i diskreta steg, och när en given nod w i nätverket först får en kopia av brevet, vid tidpunkten t, bestämmer det först om man ska delta i processen alls, väljer att göra det med sannolikhet 1 på. Om w väljer att delta, väljer det sedan en slumpmässig väntetid fördelas som ovan. Mellan gånger t och t ska, nod w kan få flera kopior av brevet (inklusive den ursprungliga som det mottog vid tidpunkten t). Vid tiden t..., node w väljer kopia av den bokstav som den har fått med den längsta listan över namn (brytande band godtyckligt), vidarebefordrar den till alla sina grannar, och offentliga inlägg denna kopia med sannolikhet. Precis som tidigare, när processen avslutas, betraktar vi den observerbara delen av trädet. Detta asynkrona svarsmönster har en ''serialisering''-effekt i nätverk med stor klusterkoefficient (18) som LJ-nätverket har: Om grannarna till en vidarebefordrande nod är ömsesidigt anslutna, kommer de att vidarebefordra brevet till varandra när de agerar på det för att producera en enda lång lista med alla sina namn snarare än många distinkta kortare listor, som var och en innehåller ett av sina namn. I det observerbara trädet, kommer denna förändring tenderar att producera djupare ''runs'' av noder där varje nod har exakt ett barn, exakt den struktur som vi observerar. Detta sätt på vilket verkligt värderade svarstider producerar vägar med ett större antal humle är jämförbart med fenomen i analysen av kortaste vägar i grafer med slumpmässiga egglängder (30), även om de två typerna av modeller har olika strukturer, som härrör från olika generativa mekanismer. Asynkron respons är ett steg mot träd med rätt struktur, men det är inte tillräckligt av sig själv; följaktligen introducerar vi en andra förlängning till modellen också. Denna andra förlängning är baserad på det faktum att mottagarna faktiskt har två naturliga sätt att reagera på meddelandet annat än att kasta det: de kan vidarebefordra det till sina grannar i nätverket, som tidigare, eller de kan grupp-reply till uppsättningen av kärncipienter på det e-postmeddelande de tar emot; i det senare fallet, dessa kärncipienter får var och en en en kopia av brevet med mottagarens namn bifogade. Således håller vi detaljerna i den tidigare modellen samma som tidigare, med ett tillägg: för en back-rate parameter på, en icke-discarding mottagaren nod w at time t och vidarebefordrar brevet till sina egna grannar som tidigare med sannolikhet 1 på, och annars det grupp-svar med sannolikhet på. Tillsammans med asynkrona svarstider förstärker gruppreplying ytterligare den seriella effekten av att ha kopior av brevet hanteras i följd av uppsättningen av icke-discarding grannar av en nod, med varje appendding sitt namn och därmed producerar en enda lång väg i trädet. Men att öka back-rate också minskar utvecklingen av bokstaven till nya noder i grafen, eftersom grupp-replying snarare än vidarebefordring till grannar bara ger kopior av bokstaven till noder som redan har fått det minst en gång. Med en hög back-rate, är bokstaven därmed mindre sannolikt att någonsin nå en stor uppsättning noder. Således blir det naturligt att studera kompromisser i trädstrukturen som en funktion av på. Bilda. 4 A-C visar mediandjupet, bredden, och enbarnsfraktion av träd som produceras som back-rate och post-rate är var och en varieras självständigt mellan 0 och 1 (med utkast-hastigheten., 1.00 och post-rate på 0,00, 0,01,.., 1.00, en uppsättning S på träd genererades med hjälp av vår modell. Alla genererade träd som inte nådde 18,119 mottagare-antalet observerbara mottagare i den verkliga kedja brev- kastades; de återstående träden trimmades till att omfatta endast de första 18,119 personer vars namn fanns i postade kopior av framställningen. (A-C) Medianvärde på S, mätt med var och en av våra tre mått: enbarnsfraktion, mediandjup och bredd. (D) Medianavvikelse-maximum över de tre mätvärdena för förhållandet på x/min (x, y), där x är värdet av mätvärdet på det simulerade trädet och y är värdet av mätvärdet på den verkliga kedjebokstaven av träd i S, (Avvikelser mellan 0 och 1 visas i grönt.) När back-rate når 0.9, vi få träd som ungefär motsvarar den verkliga data i alla tre mätvärden, uppvisar hög djup, låg bredd, och en hög bråkdel av noder med exakt ett barn. Minst ett dussin träd genererades för varje Och Och, Och minst 2.000 träd genererades i den region av parameter utrymme där matchen är närmast, med 0.870, 0.871,..., 0.959. (E) Fraction av simulerade träd i denna region som når storleken på den verkliga kedjebokstäven och fraktionen av simulerade träd som uppnådde en avvikelse på mindre än 0,10, 0,20, 0,30 och 0,50 för post-rate på 0,22. Av runningar som når storleken på det verkliga trädet, F visar fraktionen av simulerade träd som uppnår dessa små avvikelser. Liben-Nowell och Kleinberg PNAS 25 mars 2008 vol. - Nej, det gör jag inte. 12 - 4637 - fast till 0,65, även om jämförbara resultat håller för andra utkast i intervallet mellan 0,5 och 0,75). För höga back-rates runt 0,95, kombinerat med låga post-rates omkring 0,22, får vi träd som ungefär motsvarar förökningsträdet av den verkliga kedja bokstaven i alla tre mått (Fig. 4 D-F)................................................................................................ Modellen som producerar träd som ungefär motsvarar de observerade spridningsmönstren i våra data omfattar alltså två relaterade ingredienser: asynkron responstid och förmågan hos ett meddelande (via back-rate parametern) att flytta ''lateralt'' mellan flera noder som tar emot ett meddelande från samma källa. Båda dessa ingredienser har effekten av att producera långa, smala kedjor av mottagare, en slående och osannolikt oväntad egenskap i den struktur man observerar i de verkliga spridningsträden. Dessutom producerar en extremt liten del av simuleringen på LJ-nätverket träd som är så stora som det verkliga kedjebokstavsträdet innan de dör ut för de parametrar som ligger närmast det verkliga trädet. Med andra ord, strukturen av det verkliga trädet motsvarar en del av parametern utrymme där stora träd är sällsynta händelser-som de är i verkliga livet också. I grund och botten hade framstegen i Irak-krigs- och NPR-kedjebokstäverna en typ av stroboskopisk effekt, vilket tjänar till att kortfattat "ljusa upp" en struktur – det globala e-postnätverket – som annars i stort sett har varit osynligt, och som gör det möjligt för oss att observera en ögonblicksbild av nätverkets dagliga användning som ett sätt att förmedla information. Den resulterande analysen har avslöjat flera teman. För det första är en exakt rekonstruktion av de vägar som informationen följs av en beräkningsutmaning i sig, med tanke på de omfattande sätt på vilka uppgifterna muteras när de sprids. För det andra, spridningsmönstren för de verkliga kedjebokstäverna är starkt i strid med förutsägelserna om enklare teoretiska modeller, som posit processer som når många fler människor i radikalt färre steg. Slutligen kan enkla probabilistiska modeller som införlivar den hastighet med vilken individer reagerar på information producera syntetiska spridningsmönster som nära liknar dem vi observerar i verkliga livet. Som tidigare nämnts, det sätt på vilket spridningsmönstret synliggörs för oss genom data-genom-listor över undertecknare-medel att vi saknar detaljerad information om mottagarlistor och tidsstämpelr på alla utom en handfull enskilda meddelanden. Som ett resultat av detta har våra modelleringsinsatser med nödvändighet fokuserat på att hävda att de ovanliga strukturer vi observerar är kapabla att uppstå från enkla generativa processer, vilket tyder på att denna typ av informationsöverföring faktiskt kan ha en naturlig grund, och försöker avslöja några av dess rimliga kvalitativa ingredienser. Med mer detaljerad information-till exempel, i en analys som hade tillgång till många eller de flesta av meddelandehuvuden-vi kunde studera svarstider och överlappningar i mottagarlistor bland angränsande noder i trädet och därmed bedöma anpassningen av dessa modeller till den detaljerade mekaniken för meddelande-utskick, inte bara till globala parametrar (djup, bredd, singel-barn fraktion) av själva trädet. På det hela taget kan alltså Internetbaserade ögonblicksbilder av informationsspridning potentiellt ge oss insikt i några av den globala dynamiken bakom sociala fenomen som opinionsbildning och politisk mobilisering. Det faktum att den observerade spridningen sker längs träd som är så djupa och smala tyder på att de stigar som korsas av information genom sociala nätverk kan vara mer komplexa än vad som kan ha kunnat antas, med det stora antalet steg som ger spridningen en viss bräcklighet och ger större möjligheter för informationen att förändras eller förloras när den sprids. Spridningens mönster verkar också inledningsvis stå i konflikt med det sociala nätverk som den är inbäddad i, men de modeller som diskuteras här visar att sådana mönster kan uppstå från naturliga processer som verkar i verkliga sociala nätverk. I slutändan behöver strukturen i en liten värld, där de flesta människor är anslutna genom korta vägar, inte vara i strid med en värld där en antikrig appeal, inbäddad i en e-postkedja brev, kan passera flera hundra mellanhänder innan du anländer i ens inkorg. Vi tackar Moses Liskov för värdefulla diskussioner i det tidiga skedet av detta arbete. | Liben-Nowell och Kleinberg REF försökte spåra informationsflödet i global skala med hjälp av data med kedjebrev via Internet. | 5,691,227 | Tracing information flow on a global scale using Internet chain-letter data | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 6,087 |
Proofs of Retrievability (PoR), som infördes av Juels och Kaliski [JK07], tillåter kunden att lagra en fil F på en opålitlig server, och senare köra en effektiv granskning protokoll där servern visar att den (fortfarande) har kundens data. Konstruktioner av PoR-system försöker minimera klienten och serverlagring, kommunikations komplexiteten i en granskning, och även antalet filblock som nås av servern under revisionen. I detta arbete identifierar vi flera olika varianter av problemet (såsom begränsad användning vs. obegränsad användning, kunskap-sundhet vs. information-sundhet), och ger nästan optimala PoR system för var och en av dessa varianter. Våra konstruktioner antingen förbättra (och generalisera) de tidigare PoR konstruktioner, eller ge de första kända PoR system med de egenskaper som krävs. I synnerhet, vi • Formellt bevisa säkerheten i en (optimerad) variant av det avgränsade användningsschemat av Juels och Kaliski [JK07], utan att göra några förenklade antaganden om motståndarens beteende. • Bygg det första obundna PoR-systemet där kommunikationens komplexitet är linjär i säkerhetsparametern och som inte är beroende av slumpmässiga orakler, och lösa en öppen fråga om Shacham and Waters [SW08]. • Bygga det första systemet med begränsad användning med information-teoretisk säkerhet. Den huvudsakliga insikten i vårt arbete kommer från en enkel koppling mellan PoR system och begreppet hårdhet förstärkning, omfattande studeras i komplexitetsteori. I synnerhet, våra förbättringar kommer från att först abstraktera en rent informationsteoretisk uppfattning om PoR-koder, och sedan bygga nästan optimala PoR-koder med hjälp av toppmoderna verktyg från kodning och komplexitetsteori. | Proof of Retrievability (PoR) REF syftar till att kontrollera om filerna är tillgängliga i molnlagringen när som helst. | 3,110,439 | Proofs of retrievability via hardness amplification | {'venue': 'In TCC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,088 |
Lärande av Transformation-Equivariant Representations (TERs), som introduceras av Hinton et al. [16], har ansetts som en princip för att avslöja visuella strukturer under olika omvandlingar. Den innehåller de berömda Convolutional Neural Networks (CNN) som ett specialfall som endast motsvarar översättningarna. Däremot försöker vi utbilda TER för en generisk klass av transformationer och utbilda dem på ett oövervakat sätt. I detta syfte presenterar vi en ny principbaserad metod genom Autoencoding Variational Transformations (AVT), jämfört med den konventionella metoden för autoencoding data. Formellt, givet transformerade bilder, försöker AVT utbilda nätverken genom att maximera den ömsesidiga informationen mellan omvandlingar och representationer. Detta säkerställer att de resulterande TERs av enskilda bilder innehåller den inneboende informationen om deras visuella strukturer som skulle likformigt under olika omvandlingar. Tekniskt sett visar vi att det resulterande optimeringsproblemet effektivt kan lösas genom att maximera en variationsrik lägre bindning av den ömsesidiga informationen. Detta variabla tillvägagångssätt introducerar en transformationsdekoder för att approximera den intractable posterior av transformationer, vilket resulterar i en autoencoding arkitektur med ett par av representationen kodare och transformation dekoder. Experiment visar den föreslagna AVT-modellen sätter ett nytt rekord för prestationerna på oövervakade uppgifter, vilket i hög grad minskar prestandagapet för de övervakade modellerna. | Detta arbete utökas senare i REF genom att införa en variationsavkodare för transformation, där AET-modellen utbildas ur ett informationsteoretiskt perspektiv genom att maximera den lägre gränsen för ömsesidig information. | 85,518,068 | AVT: Unsupervised Learning of Transformation Equivariant Representations by Autoencoding Variational Transformations | {'venue': 'in Proceedings of International Conference in Computer Vision (ICCV 2019), Seoul, Kore, Oct. 27 -- Nov. 2, 2019', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,089 |
Abstract-Software as a service (SaaS) leverantörer utnyttjar stordriftsfördelar genom att erbjuda samma instans av ett program till flera kunder vanligtvis i en enda-intance multitenant arkitektur modell. Därför måste applikationerna vara skalbara, multi-tentant medvetna och konfigurerbara. I detta dokument visar vi hur tjänsterna i ett serviceorienterat SaaS-program kan användas med olika multi-tenancy mönster. Vi beskriver hur de valda mönstren påverkar applikationens anpassningsförmåga, multi-tenant medvetenhet och skalbarhet. Med hjälp av mönster beskriver vi hur individuella tjänster i en multitenant medveten applikation inte kan vara multi-tenant medveten samtidigt som den övergripande multi-tenant medvetenhet om ansökan. Vi visar utifrån ett verkligt exempel hur mönster kan användas i praktiken och visar hur befintliga applikationer redan använder dessa mönster. | Författarna REF beskriver hur tjänsterna (eller komponenterna) i ett serviceorienterat SaaS-program kan användas med hjälp av olika multitennicitetsmönster och hur de valda mönstren påverkar applikationens anpassningsförmåga, multitenantmedvetenhet och skalbarhet. | 7,943,181 | Combining Different Multi-tenancy Patterns in Service-Oriented Applications | {'venue': '2009 IEEE International Enterprise Distributed Object Computing Conference', 'journal': '2009 IEEE International Enterprise Distributed Object Computing Conference', 'mag_field_of_study': ['Computer Science']} | 6,090 |
Befintliga modeller för klusteranalys består vanligtvis av ett antal attribut som beskriver de objekt som ska delas upp och en enda latent variabel som representerar de kluster som ska identifieras. När man analyserar data med hjälp av en sådan modell letar man efter ett sätt att samla data som gemensamt definieras av alla attribut. Med andra ord utför man endimensionell klusterbildning. Detta är inte alltid lämpligt. För komplexa data med många attribut är det mer rimligt att överväga multidimensionell klusterbildning, dvs. att partitionera data längs flera dimensioner. I detta dokument presenterar vi en metod för att utföra multidimensionell klusterbildning på kategoriska data och visa sin överlägsenhet över endimensionell klusterbildning. | Den multidimensionella klusterbildningens överlägsenhet när det gäller kategoriska data över endimensionell klusterbildning fastställs i REF. | 16,998,744 | Model-based multidimensional clustering of categorical data | {'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,091 |
Abstract-De djupa konvolutionella neurala nätverk har uppnått betydande förbättringar i noggrannhet och hastighet för enkelbild super-upplösning. I takt med att nätverkets djup ökar försvagas dock informationsflödet och träningen blir hårdare och hårdare. Å andra sidan har de flesta modellerna en enhetlig struktur med vilken det är svårt att integrera kompletterande kontextuell information inom olika mottagliga områden. För att förbättra informationsflödet och för att fånga upp tillräcklig kunskap för att rekonstruera högfrekvensdetaljerna föreslår vi en kaskad flerskalig cross network (CMSC) där en sekvens av undernätverk kaskaderas för att dra slutsatser om hög upplösning på ett grovt till fint sätt. I varje kaskaddelnätverk staplar vi flera flerskaliga cross (MSC)-moduler för att säkra kompletterande flerskalig information på ett effektivt sätt samt för att förbättra informationsflödet över lagren. Samtidigt, genom att införa rest-features lärande i varje steg, den relativa informationen mellan hög-upplösning och låg-upplösning funktioner utnyttjas fullt ut för att ytterligare öka återuppbyggnaden prestanda. Vi utbildar det föreslagna nätverket med kaskad-supervision och sedan monterar de mellanliggande förutsägelserna av kaskaden för att uppnå hög kvalitet bildrekonstruktion. Omfattande kvantitativa och kvalitativa utvärderingar av referensdata visar hur överlägsen vår föreslagna metod är jämfört med de senaste superupplösningsmetoderna. | CMSC REF säkrar kompletterande flerskalig information genom att kaskadera flera flerskaliga tvärmoduler som kan lära sig funktioner under olika mottagliga fält. | 3,545,005 | Single Image Super-Resolution via Cascaded Multi-Scale Cross Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,092 |
Vi vill börja med ett citat från Taiga Forum 1, även om vi alla vet att deras uttalanden är tänkta att vara provokativa och överdrivna: "E-böcker och e-boksläsare kommer att vara allestädes närvarande. Standarder kommer magiskt att ha gjort detta möjligt. Handhållna kommer att vara allestädes närvarande och biblioteksresurser kommer att behöva vara tillgängliga för dessa enheter för att möta användarnas behov." Tekniska framsteg medför nya utmaningar för biblioteken. Vi bör dock inte betrakta denna situation som ett hot eller som en ny arbetsbörda, utan vi bör se den som en möjlighet att anpassa biblioteket till våra användares nya krav. Koderna "snabb respons" (QR) är ett av de verktyg som kan hjälpa oss att förbättra relationen mellan biblioteket och dess användare. Det är viktigt att förstå vad de kan göra och när de kan hjälpa våra användare. Series -24(3) tillägg, November 2011 David Pons et al QR koder som används på UPV Library QR koder i bruk: upplevelsen på UPV Library QR koder börjar införas i våra bibliotek och är ett enkelt sätt att ge ytterligare information till mobila webbanvändare på en given tid och plats. I detta dokument delar vi erfarenheter och ger några exempel på introduktion och användning av QR-koder vid Universitat Politècnica de València (UPV) Libraries i Spanien. Vi beskriver hur vi använder QR-koder för att ge tillgång till vår mobila webbplats, för att ladda ner dokument och för att marknadsföra vår litteraturblogg. Vi beskriver också hur vi marknadsför våra QR-koder till både användare och bibliotekarier, inklusive några bästa metoder. Slutligen diskuterar vi våra framtida projekt, till exempel användningen av QR-koder för informationskunskap. DAVID PONS, Teknisk Specialist i Archives och S48 Normala streckkoder håller information i endast en dimension (horisontellt) och är allvarligt begränsade i mängden data de kan innehålla. QR-koder kan dock innehålla mycket mer information än en vanlig streckkod. Denso Wave utvecklade QR-koder som ett sätt att hålla information i två dimensioner (de går horisontellt och vertikalt) och strikt sagt bör de beskrivas som matriskoder snarare än streckkoder. Walsh 2 definierar en QR-kod som en typ av tvådimensionell streckkod som är läsbar av QR streckkodsläsare och mobiltelefonkameror. Koden består av svarta moduler ordnade i ett fyrkantigt mönster på en vit bakgrund och den var utformad för att göra det möjligt att avkoda innehållet i hög hastighet. Det är verkligen lätt att generera och använda dem, och det finns många gratis QR-kodgeneratorer och QR-kodläsare tillgängliga på internet. QR-koder är verkligen vanliga i Japan, men deras popularitet ökar snabbt i andra regioner som Europa. Även om de ursprungligen användes för att spåra delar i fordonstillverkning, QR-koder används nu i ett mycket bredare sammanhang. De kan användas för att länka till en webbplats, ladda ner dokument, koda text eller kontaktuppgifter, visa en plats, skicka SMS eller ringa ett telefonsamtal. Det finns en hel del program tillgängliga som du kan dra nytta av i ditt bibliotek. Användningen av smartphones och mobilwebben växer dagligen, därför dyker nya sätt att kommunicera med våra användare upp. Användningen av QR-koder i biblioteken är fortfarande till stor del oprövad. Men förra året ett stort antal internationella papper om sina teoretiska möjligheter och användningsområden, som studier av Hoy 3, Hampton 4 och Burns 5, har dykt upp. Det finns också redan några studier som ger exempel på mobil webb och QR-kod användning i Spanien, såsom de av Arroyo 6, 7 och UPC 8. I denna uppsats kommer vi att beskriva vår egen praktiska erfarenhet, ge några exempel på användningen av QR-koder i ett universitetsbibliotek och de resultat som vi har haft på UPV. Vi kommer också att dela några av våra framtida projekt med användning av QR-koder. Vårt yttersta mål med denna uppsats är att uppmuntra bibliotek att använda QR-koder genom att visa hur de kan användas i bibliotek som ett enkelt sätt att ge information till våra smartphone-användare på en given tid och plats. I februari 2010 utarbetade Universitat Politècnica de València (UPV) Library en performance plan för att förbättra kommunikationen mellan biblioteket och dess användare. Syftet med detta var att ta itu med det faktum att våra nuvarande kommunikationsmedel, via webbplatsen, e-post, affischer, RSSm etc., inte längre uppmuntrade användare att kontakta biblioteket. En av de arbetsgrupper som skapades i prestationsplanen var den mobila teknikgruppen. Detta undersökte olika möjligheter för användning av mobil teknik, inklusive QR-koder, i UPV-biblioteket, att erbjuda smartphone-användare nya mobila verktyg för en bättre biblioteksupplevelse. Vi studerade litteraturen, sökte efter nya erfarenheter av bibliotek inom detta område och fann att det fanns några fallstudier om mobila nät och QR-koder. (Några exempel på dessa har redan tagits upp). Vi insåg att detta kunde vara ett enkelt sätt att dynamisera vår relation med våra användare, och skulle göra det möjligt för oss att nå flera mål, t.ex.: ■ att ge en extra åtkomstpunkt till våra webbplatser ■ att förbättra bilden av biblioteket: användningen av denna "nya" teknik skulle kunna värderas högt av användarna ■ för att göra det möjligt för våra användare att lära sig vad en QR-kod är i biblioteket. Av dessa skäl har QR-koder nu integrerats i biblioteket i följande sammanhang: Nyligen har en mobil version av webbplatsen Library 9 utvecklats. Det kallas "Bibmobil". Efter att ha övervägt flera alternativ bestämde vi oss för att skapa en flik på webbplatsen för att komma åt Bibmobil. Det beslutades också att följa denna knapp med en QR-kod (se figur 1 ) som är samma som Bibmobil URL. På så sätt har användarna möjlighet att spara till sin mobila enhet och sedan komma åt Bibmobil direkt. Många av våra affischer som informerade studenter om scheman och biblioteksnyheter var överbelastade med information. Därför har vi inkluderat en QR-kod som ersätter eller ger extra information för att uppnå ett dubbelt mål: att lägga till mer information och visuellt minska dataöverbelastningen. Figur 2 visar en QR-kod med information om bibliotekets scheman/tidtabeller, och figur 3 visar lördagar som biblioteket är öppet under tentamensperioder. Den senaste affischen är en del av kampanjen som kommer att diskuteras senare. I tryckta guider om användningen av tjänster och/eller produkter som erbjuds av biblioteket har en QR-kod lagts till som länkar till den digitala versionen av guiden. På så sätt kunde användare som har sparat QR-koden komma åt guiden från sin mobila enhet var som helst när som helst. Figur 4 visar en katalogguide som förbinder vilka QR-koder som länkar med samma guide i digitalt format som finns på Issuu. För närvarande erbjuder många leverantörer av elektroniska resurser sina anpassade produkter för visning på UPV-biblioteket en litteraturblogg som heter Connecta't a la lectura 10, en webbplats där recensioner om fiktionsböcker publiceras och där läsare kan lägga till kommentarer eller rekommendera sina favoritböcker. De flesta av de romaner som recenserats i bloggen har nu figur 6 ). Sådana koder skickar läsare till vår blogg, så att de kan läsa hela inlägget, läsa kommentarerna eller lämna en kommentar som säger om de gillade boken. I vårt bibliotek har vi några papperslistor över litteratur och grammatikböcker. Användarna kan konsultera dem för att ta reda på vilka böcker vi har om just detta ämne, men användaren kan inte känna till bokens status utan att göra en sökning i katalogen. En QR-kod har inkluderats i varje listning med sökningen (Figur 7 ): det kommer att ta användare till katalogen och ge dem den information de behöver (bok tillgänglighet, lån, etc.). UPV Libraries erbjuder kartor med plats och placering av bokhyllor. Kartorna trycks och placeras vid bibliotekets entré. QR-koden är inbäddad i kartan (figur 8 ), så att användarna kan ladda ner informationen till sin telefon och ta kartan med dem medan de letar efter de böcker de är intresserade av. Ett annat exempel på att använda QR-koder för att ladda ner dokument är biblioteksbibliografier, som finns på UPV:s webbplats. Här, när en ny bibliografi publiceras, är QR-koden inkluderad i själva tillkännagivandet, och genom att läsa den, användare kan ladda ner ett PDF-dokument som bekvämt kan ses på sin smartphone. Biblioteket höll nyligen en utställning med antika och sällsynta böcker från School of Design Engineering Library. Denna utställning hade en virtuell motsvarighet i vårt Flickr konto med bilder på varje bok. En QR-kod placerades vid ingången med en länk till den virtuella utställningen (figur 9 ) så att användarna kunde ta den med sig. QR-koder har också använts för specifika kulturkampanjer som bland annat syftar till att främja läsning av historiska romaner eller reseguider. För sådana kampanjer har biblioteket tillhandahållit förteckningar över relevanta böcker, med en QR-kod på var och en av dem. Om vi jämför resultaten av de undersökningar som gjorts av universitetet i Bath 2009 11 och 2010 12, visar de en stor ökning av användare som vet vad en QR-kod är under den tiden: från 13,8% 2009 till 39,8% 2010. Detta är dock fortfarande en relativt låg andel och man ansåg att det var nödvändigt att inleda en kampanj för att marknadsföra dessa koder till bibliotekspersonalens biblioteks- och biblioteksanvändare. På intern nivå vid UPV har en kurs genomförts som syftar till att öka personalens medvetenhet om mobilnätet. Detta inkluderade ett avsnitt om QR-koder. På samma sätt har riktlinjer för bibliotekarier tagits fram för att öka medvetenheten om QR-koderna, hur man skapar dem och deras potentiella användningsområden för bibliotek. På den externa nivån har användningen av QR-koder annonserats på olika sätt: nyheter på universitetets och bibliotekets webbplats om mobilwebben och QR-koder, broschyrer för användare för att visa vad som är en QR-kod, hur man använder den och de möjligheter som erbjuds (Figur 10 ). I själva biblioteket har användningen av QR-koder annonserats (på skärmar) och stora affischer har satts upp i biblioteksområden med ett stort antal användare, vilket ger bara en QR-kod för att fånga användarnas uppmärksamhet (som visades i exemplet med lördagens öppettider i figur 3). När vi startade den interna informationskampanjen utarbetade vi några riktlinjer för bibliotekarierna - några rekommendationer för att förbättra deras arbete, som: ■ vara kortfattad Först läses QR-koder med en telefonkamera och därefter avkodas med programvara. Om kameran eller programvaran är av dålig kvalitet kan användaren ha problem med QR-kodläsningen. Om vi vill minimera detta problem måste vi skapa ljus QR-koder med korta texter eller skapa en kortare länkversion av vår URL. Till exempel, Figur 11 och Figur 12 gå till samma webbsida (biblioteksschema) men den första är mer komplicerat att läsa eftersom det är tät. Den andra QR-koden skapades med en URL-kortare och det är verkligen mycket lättare att läsa. Användningen av QR-koder vid UPV är relativt ny och därför har vi för närvarande inte tillräckligt med data för att kunna utvärdera den verkliga effekten på biblioteksanvändare. Emellertid kan vi analysera och förklara några tidigare data, som följer. Numera representerar de mobila webbplatsbesökarna mindre än 2 % av alla besökare på bibliotekets webbplats, så användningen av QR-koder som länkar till den mobila webbplatsen 13 är fortfarande mycket låg. För att ta reda på hur många åtkomster till våra webbplatser kommer från QRs, analyserar vi nu för- och nackdelar med två sätt att göra detta. Den första är skapandet av mellanliggande webbsidor. Med samma innehållshanteringssystem (CMS) som vi använder för vår mobila webbplats (Joomla) kommer vi att producera lika många sidor som de fysiska QR Serials -24(3) tillägg, November 2011 David Pons et al QR koder som används på UPV Library S53 koder vi har. Då den fysiska QR kommer att leda oss till denna mellanliggande sida som kommer att ta oss sömlöst till korrespondentwebbplatsen. På så sätt, om vi ändrar en URL, då behöver vi bara ändra omdirigeringen på denna sida och lämna den fysiska QR som det är. Å andra sidan, eftersom vi redan har ett Google Analytics konto på vår Joomla webbplats, skulle vi kunna övervaka framgången med koderna. Vi kunde organisera dem efter typ (guider, kartor, tidtabeller, etc.) för att få intressanta data. Den andra är en webbtjänst som kallas bitly URL förkortning 14 som ger en liten URL. Om du registrerar dig på ett gratis konto, kommer det att generera en QR-kod från en URL och det kommer också att ge dig användningsstatistik. Som tidigare nämnts har vi tagit fram broschyrer om användning och möjligheter av QR-koder, och uppskattar att cirka 10 procent av de användare som lånar en bok också tar en QR-broschyr, och några av dem frågar till och med bibliotekarien om QR-koder. Slutligen, för att utvärdera förbättringen av bibliotekets bild, skulle vi behöva vänta på den användarundersökning som universitetet producerar varje år. För tillfället kan vi bara säga att vissa användare har gratulerat oss till att ha infört QR-koder i biblioteket. I denna fallstudie har vi visat flera användningsområden för QR-koder vid UPV Libraries i Spanien. Ett annat projekt består av att utöka användningen av QR-koder runt vår fysiska samling för att bredda användarens vision av våra bibliotek. Till exempel, eftersom vi har ett filmbibliotek, kanske vi borde placera en QR-kod bredvid den som informerar användare om andra filmsamlingar i andra bibliotek eller campus, eller om våra böcker på bio. Och inte bara ska vi använda QR-koder för att främja vår fysiska samling utan också för att öka tillgången till vår dyra e-böcker samling, till exempel placera QR-koder där ofta otillgängliga pappersböcker är. Denna QR-kod skulle leda användaren till den elektroniska versionen av denna bok, som University of Bedfordshire gör. Walsh 18 och andra författare anser att informationskunskap kommer att påverkas av mobila miljöer, förmodligen på ett positivt sätt. Men först måste vi tänka djupt på hur vi kan utvecklas från ett pappersbaserat koncept för informationskunskap till mobilt lärande för digitala infödda. Vi bör inte bara återge våra pappersguider på den mobila webbplatsen, utan anpassa budskapet till de nya leveransmedierna. Plats-medvetna telefoner ger oss ett mycket kraftfullt verktyg som, tillsammans med QR-koder, kan vara riktigt användbart för våra användare. Så ett annat intressant steg skulle vara att utveckla några augmented reality lager och QR-koder som ansluter med ett Layar lager. Det finns ett annat forskningsområde i vårt universitet som använder QR-koder för geolokalisering på en karta över universitetets campus utan att behöva GPS, genom att ladda ner en ansökan och skanna QRs. Vi tror att denna teknik kan vara användbar för en inomhusmiljö som ett bibliotek, där GPS normalt inte fungerar så bra. Numera är utbyggnaden av mobilteknik tydlig (smarttelefoner, surfplattor, e-läsare osv.) Å andra sidan kan vi inte bortse från hur användarna kommunicerar. Några av våra användare befinner sig redan i en mobil kommunikationsmiljö och förr eller senare kommer resten att ansluta sig till dem. Detta innebär inte att vi alltid bör vara där de finns och använda alla dessa verktyg, eller andra framtida verktyg, men vi måste åtminstone vara medvetna om deras existens och deras användbarhet. Även om en QR-kod kan vara en snabb extra åtkomstpunkt till våra digitala eller fysiska anläggningar, kan vi missa en möjlighet om vi inte anstränger oss för att designa användarorienterade landningssidor som verkligen uppfyller patronernas behov. Vi måste så länge vi kan undvika QR-koder som hänvisar till icke-anpassade webbplatser. Slutligen måste vi också ta hänsyn till att vi genom att använda QR-koder och ny teknik i biblioteket bidrar till att stärka vår bild av modernitet och därmed börjar ses som en källa till dynamisk information som utvecklas utan att glömma bort tekniska framsteg. Men denna nya bild och roll kommer bara att ske om vi är redo i tid för att möta våra användares förändrade behov. | Följaktligen uppnår QR-koder ett dubbelt mål genom att tillhandahålla mer information där det behövs och minska den visuella informationsöverbelastningen REF. | 58,263,432 | QR codes in use : the experience at the UPV Library | {'venue': None, 'journal': 'Serials: The Journal for The Serials Community', 'mag_field_of_study': ['Computer Science']} | 6,093 |
Clustering är en viktig uppgift när det gäller att utvinna dataströmmar som utvecklas. Förutom de begränsade minnes- och enpass-begränsningarna innebär de evolverande dataströmmarnas karaktär följande krav för strömhopning: inget antagande om antalet kluster, upptäckt av kluster med godtycklig form och förmåga att hantera avvikelser. Medan många klusteralgoritmer för dataströmmar har föreslagits, erbjuder de ingen lösning på kombinationen av dessa krav. I detta dokument presenterar vi DenStream, ett nytt tillvägagångssätt för att upptäcka kluster i en framväxande dataström. Mikroklustret "dense" (som kallas kärnmikrokluster) introduceras för att sammanfatta kluster med godtycklig form, medan de potentiella mikrokluster-kluster- och avvikande mikroklusterstrukturer föreslås för att upprätthålla och särskilja de potentiella klustren och utflytarna. En ny beskärningsstrategi är utformad utifrån dessa begrepp, vilket garanterar precisionen hos mikroklustrens vikter med begränsat minne. Vår prestandastudie över ett antal verkliga och syntetiska datauppsättningar visar hur effektiv och effektiv vår metod är. | Den-stream REF är en klusteralgoritm för utveckling av dataström. | 5,939,988 | Density-based clustering over an evolving data stream with noise | {'venue': 'In 2006 SIAM Conference on Data Mining', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,094 |
ABSTRACT Motiverad av den senaste tidens explosion av intresse runt blockkedjor, undersöker vi om de gör en bra passform för Internet of Things (IoT) sektorn. Blockchains tillåter oss att ha ett distribuerat peer-to-peer-nätverk där icke-tillförlitliga medlemmar kan interagera med varandra utan en betrodd mellanhand, på ett kontrollerbart sätt. Vi ser över hur denna mekanism fungerar och även titta på smarta kontrakt-skript som finns på blockchain som möjliggör automatisering av flerstegsprocesser. Vi flyttar sedan in i IoT domänen, och beskriver hur en blockchain-IoT kombination: 1) underlättar delning av tjänster och resurser som leder till skapandet av en marknadsplats av tjänster mellan enheter och 2) gör att vi kan automatisera på ett kryptografiskt kontrollerbart sätt flera befintliga, tidskrävande arbetsflöden. Vi påpekar också vissa frågor som bör övervägas innan införandet av en blockchain nätverk i en IoT-inställning: från transaktionsintegritet till det förväntade värdet av de digitaliserade tillgångar handlas på nätverket. Där så är tillämpligt identifierar vi lösningar och lösningar. Vår slutsats är att blockchain-IoT kombinationen är kraftfull och kan orsaka betydande omvandlingar inom flera branscher, banar väg för nya affärsmodeller och nya, distribuerade applikationer. INDEX TERMS Blockchain, distribuerade system, sakernas internet. | Användningen av Blockchain-teknik i IoT-domänen för att underlätta delning av tjänster och resurser, och automatisera på ett säkert sätt flera tidskrävande arbetsflöden, studeras i REF. | 23,397,334 | Blockchains and Smart Contracts for the Internet of Things | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,095 |
Sammanfattning av denna webbsida: Framsteg i kvaliteten på helslidebilder har banat väg för klinisk användning av digitala bilder i anatomisk patologi. Tillsammans med framsteg inom analys av datorbilder ökar detta möjligheten för datorstödd diagnostik inom patologi att förbättra histopatologisk tolkning och klinisk vård. För att utvärdera den potentiella effekten av digital assistans på tolkningen av digitaliserade diabilder, genomförde vi en multireader multicase studie som använder vår djupt lärande algoritm för att upptäcka bröstcancermetastaser i lymfkörtlar. Sex patologer granskade 70 digitaliserade diabilder från lymfkörtel sektioner i 2 läslägen, utan hjälp och assisterad, med en washout period mellan sessioner. I det assisterade läget, den djupa lärande algoritmen användes för att identifiera och beskriva regioner med hög sannolikhet att innehålla tumör. Algoritm-assisterade patologer visade högre noggrannhet än antingen algoritmen eller patologen ensam. I synnerhet ökade algoritmassistansen signifikant detektionskänsligheten för mikrometastaser (91 % mot 83 %, P = 0,02). Dessutom var den genomsnittliga granskningstiden per bild signifikant kortare med hjälp än utan hjälp för både mikrometastaser (61 vs 116 s, P = 0,002) och negativa bilder (111 vs 137 s, P = 0,018). Slutligen ombads patologer att ge ett numeriskt poäng när det gäller svårigheten med varje bildklassificering. På grundval av denna värdering ansåg patologerna att bildgranskningen av mikrometastaser var betydligt enklare när den tolkades med hjälp (P = 0,0005). Genom att använda ett bevis på konceptassistentverktyg, visar denna studie potentialen för en djupinlärningsalgoritm för att förbättra patologisk noggrannhet och effektivitet i ett digitalt patologiskt arbetsflöde. Nyckelord: artificiell intelligens, maskininlärning, digital patologi, bröstcancer, datorstödd detektion (Am J Surg Pathol 2018;42:1636-1646 T han reglerande godkännande och gradvis genomförande av helslide scanners har möjliggjort digitalisering av glasbilder för fjärrkonsulter och arkivändamål. 1 Digitalisering ensam, dock inte nödvändigtvis förbättra konsekvensen eller effektiviteten i en patologs primära arbetsflöde. I själva verket kan bildgranskning på ett digitalt medium vara något långsammare än på glas, särskilt för patologer med begränsad digital patologi erfarenhet. 2 Digitala verktyg för patologi och bildanalys har dock redan visat på potentiella fördelar, inklusive möjligheten att minska variabiliteten mellan läsarna i utvärderingen av bröstcancer HER2-status. 3, 4 Digitalisering öppnar också dörren för hjälpmedel baserade på artificiell intelligens (AI) för att förbättra effektiviteten och konsekvensen, minska trötthet och öka noggrannheten. 5 Bland AI-teknikerna har djupt lärande visat en stark prestanda i många automatiserade applikationer för bildigenkänning. [6] [7] [8] Nyligen har flera djupinlärningsbaserade algoritmer utvecklats för att upptäcka bröstcancermetastaser i lymfkörtlar samt för andra tillämpningar inom patologi. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Den högsta prestandan erhölls vid användning av GoogLeNet med 40 gånger förstoring Steiner et al. REF genomförde en studie med hjälp av resultat från djupinlärningsalgoritmer för detektion av bröstcancermetastaser i lymfkörtlar. | 52,976,574 | Impact of Deep Learning Assistance on the Histopathologic Review of Lymph Nodes for Metastatic Breast Cancer | {'venue': None, 'journal': 'The American Journal of Surgical Pathology', 'mag_field_of_study': ['Medicine']} | 6,096 |
Sammanfattning av denna webbsida: Biomedicinska sensorer (BMS) övervakar de heterogena vitala tecknen på patienter. De har olika kvalitetskrav (QoS) inklusive minskad kollision, fördröjning, förlust och energiförbrukning i överföringen av data, som är icke-konstruerade, försenade, tillförlitliga och kritiska. I detta sammanhang föreslås i detta dokument ett protokoll om trafikprioritet – medveten om adaptiv fördelning av ankomst- och avgångstider (TraySL-MAC-protokollet). För det första presenteras en reducerad argumentation adaptive slot allokation algoritm för att minimera tvisterundor. För det andra har en algoritm för tilldelning av ankomst- och avgångstider utvecklats för högprioriterade data med låga tröskelvärden för vitala tecken på kritiskhet. För det tredje är en hög tröskel vitaltecken kritisk-baserad adaptiv fördelning av ankomst- och avgångstider algoritm utformad för lågprioriterade data. Simuleringar utförs för att jämförelsevis utvärdera det föreslagna protokollets prestanda med toppmoderna MAC-protokoll. Av analysen av resultaten framgår det tydligt att det föreslagna protokollet är fördelaktigt i form av lägre paketleveransfördröjning och energiförbrukning och högre genomströmning i realistiska biomedicinska miljöer. | En trafikprioritet-medveten adaptiv SLot allokering baserad MAC (TraySL-MAC) protokoll presenteras i REF. | 25,896,425 | Traffic Priority-Aware Adaptive Slot Allocation for Medium Access Control Protocol in Wireless Body Area Network | {'venue': 'Computers', 'journal': 'Computers', 'mag_field_of_study': ['Computer Science']} | 6,097 |
Abstract-Industrial styrsystem planeras för att fungera över hybrid trådbundna/trådlösa nätverk. Medan styrenheten kommer att användas i det trådbundna nätverket kommer sensorer och ställdon att användas i ett trådlöst sensornätverk (WSN). För att stödja QoS för styrsystem måste en end-to-end-fördröjning och en måltillförlitlighet tillhandahållas i både trådlösa och trådbundna domäner. För industriella WSN:er är det dock en utmanande uppgift att garantera tillförlitlighet på grund av lågeffektkommunikation och den hårda trådlösa miljön. I detta arbete presenterar vi den första QoS-ramen för godtyckliga hybrida trådlösa nätverk, vilket garanterar att fördröjningen är bunden och målsäkerheten för varje applikation. Som en del av detta ramverk föreslår vi den första pålitlighetsbaserade schemaläggaren för WSN som kan uppnå ett mål tillförlitlighet i närvaro av dynamisk störning. Simuleringar av den föreslagna schemaläggaren bevisar dess lämplighet i olika interferensscenarier och motiverar ytterligare arbete. | Forskning om tillförlitlighet med befintlig störning inkluderar: I detta arbete REF, de presentera en kvalitet på tjänsten (QoS) ram för godtycklig hybrid trådlösa nätverk, som garanterar att fördröjningen bunden och mål tillförlitlighet för varje ansökan tillhandahålls. | 13,689,187 | Achieving Hybrid Wired/Wireless Industrial Networks With WDetServ: Reliability-Based Scheduling for Delay Guarantees | {'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science']} | 6,098 |
Att förutse förekomsten av länkar är ett grundläggande problem i nätverken. I länken förutsägelse problem vi ges en ögonblicksbild av ett nätverk och vill dra slutsatsen vilka interaktioner mellan befintliga medlemmar sannolikt kommer att uppstå inom en nära framtid eller vilka befintliga interaktioner vi saknar. Även om detta problem har studerats ingående, är utmaningen med att effektivt kombinera information från nätverksstruktur med rik nod- och kantattributdata fortfarande till stor del öppen. Vi utvecklar en algoritm baserad på Supervised Random Walks som naturligt kombinerar informationen från nätverksstrukturen med nod- och kantnivåattribut. Vi uppnår detta genom att använda dessa attribut för att styra en slumpmässig gång på grafen. Vi formulerar en övervakad inlärning uppgift där målet är att lära sig en funktion som tilldelar styrkor till kanter i nätverket så att en slumpmässig gångare är mer benägna att besöka noderna till vilka nya länkar kommer att skapas i framtiden. Vi utvecklar en effektiv träningsalgoritm för att direkt lära oss egg strength estimation-funktionen. Våra experiment på Facebook sociala grafen och stora samarbetsnätverk visar att vår strategi överträffar state-of-theart oövervakade tillvägagångssätt samt tillvägagångssätt som är baserade på funktionsextraktion. | Backstrom och Leskovec REF utnyttjade nätverksstrukturer, attribut för noder och kanter för detta problem. | 7,851,677 | Supervised random walks: predicting and recommending links in social networks | {'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']} | 6,099 |
Djupa neurala nätverk (DNN) är kända för sin sårbarhet för kontradiktoriska exempel. Detta är exempel som har genomgått små, noggrant skapade störningar, och som lätt kan lura en DNN att göra felklassificeringar vid provtillfället. Hittills har området för kontradiktorisk forskning främst fokuserat på bildmodeller, under antingen en white-box inställning, där en motståndare har full tillgång till modellparametrar, eller en svart-box inställning där en motståndare bara kan fråga målmodellen för sannolikheter eller etiketter. Medan flera white-box attacker har föreslagits för videomodeller, svart-box video attacker är fortfarande outforskade. För att täppa till denna lucka föreslår vi det första ramverket för videoangrepp i svartbox, kallat V-BAD. V-BAD använder trevande perturbationer som överförs från bildmodeller och partitionsbaserade rättelser som hittats av NES för att få bra skattningar av den kontradiktoriska lutningen med färre frågor till målmodellen. V-BAD motsvarar uppskattningen av projektionen av den kontradiktoriska lutningen på en vald subrymd. Med hjälp av tre referensvideodata visar vi att V-BAD kan skapa både oriktade och riktade attacker för att lura två toppmoderna modeller för djup videoigenkänning. För den riktade attacken, det uppnår > 93% framgång med hjälp av endast ett genomsnitt av 3.4 på 8,4 × 10 4 frågor, ett liknande antal frågor till state-of-the-art Black-box bild attacker. Detta trots att videor ofta har två storleksordningar högre dimensionalitet än statiska bilder. Vi anser att V-BAD är ett lovande nytt verktyg för att utvärdera och förbättra robustheten hos videoigenkänningsmodeller till attacker mot svarta lådor. • Datametoder → Verksamhetsigenkänning och förståelse. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. NYCKELORD | Till skillnad från sådana white-box attack algoritmer som behöver viss kunskap om videoigenkänningsmodeller, Jiang et al. utnyttja trevande perturbationer och partition-baserade korrigeringar för att få bra motsatt gradient uppskattningar och hög attack framgång i Black-box inställning REF. Men att attackera alla bilder av videon skulle orsaka mer störningar och dålig robusthet av den kontradiktoriska videon. | 131,774,147 | Black-box Adversarial Attacks on Video Recognition Models | {'venue': "MM '19", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,100 |
Studier av social påverkan på nätet har visat att vänner har viktiga effekter på många typer av beteende i en mängd olika miljöer. Vi vet dock mycket mindre om hur påverkan fungerar bland relativa främlingar på digitala offentliga torg, trots viktiga samtal som sker i sådana utrymmen. Vi presenterar resultaten av en studie på stora offentliga Facebook-sidor där vi slumpmässigt använt två olika metoder-senaste och sociala återkoppling - för att beställa kommentarer på inlägg. Vi finner att den sociala feedback villkor resulterar i högre kvalitet tittade på kommentarer och svar kommentarer. Efter att ha mätt den genomsnittliga kvaliteten på kommentarer skrivna av användare före studien, finner vi att social feedback har en positiv effekt på svarskvaliteten för både låg och hög kvalitet kommentatorer. Vi använder oss av en teoretisk ram av sociala normer för att förklara detta empiriska resultat. För att ytterligare undersöka påverkansmekanismen mäter vi likheten mellan de kommentarer som ses och skrivs under studien, och finner att likheten ökar för de som bidrar med högsta kvalitet under den sociala återkopplingen. Detta tyder på att, förutom normer, vissa individer kan svara med ökad relevans för högkvalitativa kommentarer. | REF studerar rankningen av inlägg på offentliga Facebook-sidor. | 814,284 | Discussion quality diffuses in the digital public square | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,101 |
Frågan om krav på tillträdeskontroll kräver fortsatt stor uppmärksamhet. Forskarnas fokus har traditionellt varit på att utveckla särskilda modeller för åtkomstkontroll och policyspecifikationer för språk för särskilda tillämpningar. Detta tillvägagångssätt har emellertid resulterat i en onödig uppsjö av modeller och språk. Däremot beskriver vi en allmän passerkontrollmodell och ett logikbaserat specifikationsspråk från vilket både befintliga och nya passerkontrollmodeller kan härledas som särskilda fall och där flera tillvägagångssätt kan utvecklas för domänspecifika tillämpningar. Vi kommer att hävda att vår allmänna ram har ett antal specifika attraktioner och en konsekvens av vårt arbete är att uppmuntra en metodisk övergång från en studie av detaljerna i tillträdeskontroll till dess allmänna. | På senare tid presenteras i REF en allmän tillgångskontrollmodell och ett logikbaserat specifikationsspråk. | 11,359,029 | A Meta-model of Access Control in a Fibred Security Language | {'venue': None, 'journal': 'Studia Logica', 'mag_field_of_study': ['Computer Science']} | 6,102 |
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik. | Metaoptimering över ett stort antal uppgifter i REF syftar till att lära sig en modell som snabbt kan anpassa sig till den nya uppgiften med ett begränsat antal uppdateringar. | 6,719,686 | Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,103 |
Samverkansmärkning beskriver den process genom vilken många användare lägger till metadata i form av nyckelord till delat innehåll. Nyligen, kollaborativ taggning har vuxit i popularitet på webben, på webbplatser som tillåter användare att tagga bokmärken, fotografier och annat innehåll. I detta dokument analyserar vi strukturen av samverkande märkningssystem samt deras dynamiska aspekter. Specifikt upptäckte vi regularities i användaraktivitet, taggfrekvenser, typer av taggar som används, spricker av popularitet i bokmärken och en anmärkningsvärd stabilitet i relativa proportioner av taggar inom en given URL. Vi presenterar också en dynamisk modell av samarbetsmärkning som förutsäger dessa stabila mönster och relaterar dem till imitation och delad kunskap. | Processen för samarbetsmärkning har undersökts i REF. | 1,946,917 | Usage patterns of collaborative tagging systems | {'venue': 'J. Inf. Sci.', 'journal': 'J. Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 6,104 |
Domspoäng och meningsval är två huvudsteg i system för sammanfattning av utdragna dokument. Tidigare arbeten behandlar dock dem som två separata deluppgifter. I detta papper presenterar vi en ny end-to-end neural nätverk ram för utdragande dokument summering genom att gemensamt lära sig att göra mål och välja meningar. Den läser först dokumentet meningar med en hierarkisk kodare för att få representation av meningar. Sedan bygger det utdatasammanfattningen genom att extrahera meningar en efter en. Annorlunda jämfört med tidigare metoder integrerar vår strategi urvalsstrategin i poängsättningsmodellen, som direkt förutsäger den relativa betydelse som tidigare valda meningar gett. Experiment på CNN/Daily Mail dataset visar att det föreslagna ramverket avsevärt överträffar de senaste utvinningsmodellerna. | En neural extractive text summering modell beskrevs som kan poäng och välja meningar gemensamt REF. | 49,656,757 | Neural Document Summarization by Jointly Learning to Score and Select Sentences | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,105 |
Abstract-I detta dokument föreslår vi en distribuerad förstärkning lärande (RL) teknik som kallas distribuerad effektstyrning med Q-learning (DPC-Q) för att hantera den störning som orsakas av femtocells på makro-användare i nedlänken. DPC-Q utnyttjar Q-Learning för att identifiera det suboptimala mönstret för krafttilldelning, som strävar efter att maximera femtocellskapaciteten, samtidigt som makrocellskapaciteten garanteras i en underliggande kognitiv inställning. Vi föreslår två olika tillvägagångssätt för DPC-Q-algoritmen: nämligen oberoende och samarbetsvilligt. I den förra, femtocells lär sig oberoende av varandra, medan i den senare, femtocells dela viss information under lärande för att förbättra deras prestanda. Simuleringsresultat visar att det oberoende tillvägagångssättet kan minska de störningar som femtocellerna ger upphov till för makroanvändare. Dessutom visar resultaten att samarbetet förbättrar femtocellernas resultat när det gäller rättvisa och aggregerad femtocellskapacitet. | I Ref använder ett centraliserat kraftkontrollsystem Q-learning för att fördela optimal effekt för att hantera störningar mellan olika nivåer i nedlänken. | 1,025,858 | Distributed Cooperative Q-Learning for Power Allocation in Cognitive Femtocell Networks | {'venue': '2012 IEEE Vehicular Technology Conference (VTC Fall)', 'journal': '2012 IEEE Vehicular Technology Conference (VTC Fall)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,106 |
I denna demonstration, kommer vi att presentera vår online tolkning 1 som gör det möjligt för användare att lämna någon mening och få en analys enligt specifikationen av AMR (Banarescu et al., 2014) i stor utsträckning. Denna AMR analys genereras av en liten uppsättning regler som omvandlar en infödd Logisk Form analys som tillhandahålls av en redan existerande parser (se Vanderwende, 2015) till AMR-formatet. Medan vi demonstrerar prestandan hos vår AMR-tolk på datauppsättningar som kommenteras av LDC, kommer vi att fokusera uppmärksamheten i demo på följande två områden: 1) vi kommer att göra tillgängliga AMR-anteckningar för de datauppsättningar som användes för att utveckla vår tolk, att fungera som ett komplement till de LDC-datauppsättningar, och 2) vi kommer att visa AMR-tolkar för tyska, franska, spanska och japanska som använder sig av samma lilla uppsättning av LF-till-AMR-konverteringsregler. Abstract Means Representation (AMR) (Banarescu et al., 2014 ) är en semantisk representation för vilken en stor mängd manuellt annoterade data skapas, i syfte att bygga och utvärdera parsers som genererar denna nivå av semantisk representation för tidigare osedd text. 1 Finns på: http://research.microsoft.com/msrsplat Redan en metod för utbildning en AMR parser har dykt upp i (Flanigan et al., 2014), och vi förväntar oss att fler försök att utbilda parsers kommer att följa. I denna demonstration kommer vi att presentera vår AMR-tolk, som omvandlar vår befintliga semantiska representationsformalism, Logisk Form (LF), till AMR-formatet. Vi gör detta med två mål: för det första, eftersom vår befintliga LF är nära i designen till AMR, kan vi nu använda de manuellt annoterade AMR-dataseten för att mäta noggrannheten i vårt LF-system, vilket kan tjäna till att ge ett riktmärke för parsers utbildade på AMR corpus. Vi erkänner tacksamt de bidrag som Banarescu m.fl. har lämnat. (2014) för att definiera en tydlig och tolkningsbar semantisk representation som möjliggör denna typ av systemjämförelse. För det andra vill vi bidra med nya AMR-datamängder som består av AMR-anteckningarna från vår AMR-tolk av de meningar vi tidigare använt för att utveckla vårt LF-system. Dessa meningar curerades för att täcka ett brett spektrum av syntaktiska-semantiska fenomen, inklusive de som beskrivs i AMR-specifikationen. Vi kommer också att visa vår tolk förmåga att generera AMR analyser för meningar på franska, tyska, spanska och japanska, för vilka inga manuellt kommenterade AMR-data finns tillgängliga för närvarande. Abstract Means Representation (AMR) är ett semantiskt representationsspråk som syftar till att ge samma representation till meningar som har 26 | I annan forskningslinje föreslog REF en AMR-tolk för att omvandla Logic Form Representationer till AMR för engelska. | 7,874,812 | An AMR parser for English, French, German, Spanish and Japanese and a new AMR-annotated corpus | {'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,107 |
Distributionsnätverk för abstract-Content (CDN) är en mekanism för att leverera innehåll till slutanvändare för ursprungswebbplatsernas räkning. Innehållsdistribution avlastar fungerar från ursprungsservrar genom att betjäna vissa eller allt innehåll på webbsidor. Vi fann en storleksordning ökning av antalet och andelen populära ursprung platser med hjälp av CDN mellan november 1999 och december 2000. I den här artikeln diskuterar vi hur CDN används ofta på webben och definierar en metod för att studera hur väl de presterar. En prestandastudie genomfördes under en period av månader på en uppsättning CDN-företag som använder teknik DNS omdirigering och URL omskrivning för att balansera belastningen bland sina servrar. Vissa CDN ger i allmänhet bättre resultat än andra när vi undersöker resultat från en uppsättning kunder. Ett CDN-företags prestanda förbättrades tydligt mellan de två testperioderna i vår studie på grund av en dramatisk ökning av antalet olika servrar som används i nätverket. Mer allmänt tyder resultaten på att användningen av en DNS-lookup i den kritiska vägen för en resurshämtning i allmänhet inte resulterar i bättre server val görs i förhållande till klientens svarstid i antingen genomsnittliga eller värsta fall situationer. Ett innehållsdisttidution Network (CDN) består av en samling (icke-ursprungs) servrar som försöker avlasta arbete från ursprungsservrar genom att leverera innehåll för deras räkning. De servrar som tillhör en CDN kan placeras på samma plats som ursprungsservern, eller på olika platser runt nätverket, med vissa eller alla av ursprungsserverns innehåll cache-at eller replikerat bland CDN-servrarna. För varje begäran försöker CDN lokalisera en CDN-server nära klienten för att tjäna begäran, där begreppet "stänga" kan omfatta geografiska, topologiska eller latensöverväganden. Med innehållsdistribution har ursprungsservrarna kontroll över innehållet och kan göra separata arrangemang med servrar som distribuerar innehåll för deras räkning. Medan CDNs har skapats av ett antal företag och dessa CDNs används för att tjäna innehåll på uppdrag av populära ursprung server webbplatser, det finns lite som har publicerats om i vilken utsträckning CDNs används och deras relativa prestanda i att tjäna innehåll. Detta arbete syftar till att ta itu med detta tomrum genom att samla in användning och | INNEHÅLLSFÖRDELNINGSNÄT: Innehållsdistributionsnät (CDN:s REF ) är ett alternativt sätt att tillhandahålla VoD till många kunder. | 1,215,792 | On the use and performance of content distribution networks | {'venue': "IMW '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,108 |
Abstrakt. Vi anser Distributed Restraint Tillfredsställelse Problem (DisCSP) när kontroll av variabler och begränsningar fördelas mellan en uppsättning av agenter. Detta dokument presenterar en distribuerad version av den centraliserade BackJumping algoritm, som kallas Dynamic Distribuated BackJumping -DDBJ algoritm. Fördelen är tvåfaldig: DDBJ ärver styrkan i synkrona algoritmer som gör det möjligt för den att enkelt kombinera med en kraftfull dynamisk ordning av variabler och värden, och ändå upprätthåller den viss nivå av autonomi för agenterna. Experimentella resultat visar att DDBJ överträffar DiDB och AFC algoritmer med en faktor av en till två storleksordningar på hårda fall av slumpmässigt genererade DisCSPs. | Dynamisk Distribuerad BackJumping (DDBJ) presenterades i REF. | 16,567,349 | Dynamic distributed backjumping | {'venue': 'In Proc. 5th workshop on distributed constraints reasoning DCR-04', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,109 |
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder, medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till alla tänkbara nivåer av täckning och konnektivitet för att stödja olika tillämpningar och miljöer med olika krav. I detta dokument presenteras utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhåll protokoll på flera viktiga sätt: 1) Vi presenterar en Coverage Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. 2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram: detta står i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. 3) Slutligen integrerar vi CCP med SPAN för att ge både täckning och konnektivitetsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer, både genom geometrisk analys och omfattande simuleringar. | Wang m.fl. dra samma slutsats i REF, och presenterade en täckning Configuration Protocol (CCP) som kan ge fullständig täckning. | 269,391 | Integrated coverage and connectivity configuration in wireless sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,110 |
ABSTRACT För att uppfylla kraven på framtida mobilnät bör ett stort antal små celler sättas in. I ett sådant scenario blir mobilitetshantering en kritisk fråga för att säkerställa sömlös anslutning med rimliga omkostnader. I detta dokument föreslår vi ett luddigt logikbaserat system som utnyttjar en användarhastighet och en radiokanalkvalitet för att anpassa en hysteresmarginal för överlämningsbeslut på ett självoptimerande sätt. Syftet med den föreslagna algoritmen är att minska ett antal överflödiga överlämnanden och ett felförhållande vid överlämnandet samtidigt som användarna kan utnyttja fördelarna med den täta spridningen av små celler. Simuleringsresultat visar att vår föreslagna algoritm effektivt dämpar ping pong effekt och håller den på en försumbar nivå (under 1%) i alla undersökta scenarier. Dessutom minskar andelen överlämningsfel och det totala antalet överlämnanden avsevärt med avseende på befintliga algoritmer, särskilt i scenariot med ett stort antal små celler. Dessutom håller det föreslagna systemet den tid som användarna använder för att ansluta sig till de små cellerna på samma nivå som de konkurrerande algoritmerna. På så sätt bevaras fördelarna med den täta utplaceringen av små celler för användarna. INDEX TERMS Överlämnande, hysteres marginal, mobila nätverk, små celler, suddig logik, självoptimering. | Ett luddigt logikbaserat system som justerar HOM på grundval av UE hastighet och radiokanalkvalitet presenterades i REF. | 4,772,244 | Adaptive Hysteresis Margin Based on Fuzzy Logic for Handover in Mobile Networks With Dense Small Cells | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,111 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.