src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Personligisering samarbetsfiltrering rekommenderar system (CFRS) är de viktigaste komponenterna i populära e-handelstjänster. I praktiken är CFRS också särskilt sårbara för "shilling"-attacker eller "profilinjektions"-attacker på grund av deras öppenhet. Angriparna kan injicera väl utformade attackprofiler i CFRS för att partiska rekommendationsresultaten till sina fördelar. För att minska denna risk har olika detektionsmetoder föreslagits för att upptäcka sådana attacker, som använder olika funktioner som utvunnits ur användarprofiler. Det verkar dock vara svårt att förlita sig på begränsade funktioner för att förbättra detektionsprestandan, eftersom de befintliga funktionerna inte till fullo kan karakterisera anfallsprofiler och äkta profiler. I detta dokument föreslår vi en ny detektionsmetod för att göra rekommenderade system resistenta mot sådana attacker. De befintliga funktionerna kan kortfattat sammanfattas som två aspekter inklusive betygsbeteende baserat och objektfördelning baserad. Vi formulerar först problemet som att hitta en kartläggning modell mellan rating beteende och objektfördelning genom att utnyttja de minsta-kvarts ungefärlig lösning. Baserat på den utbildade modellen designar vi en detektor genom att använda en regressator för att upptäcka sådana attacker. Omfattande experiment på både MovieLens-100K och MovieLens-ml-latest-små dataset undersöker effektiviteten av den föreslagna detektionsmetoden. Experimentella resultat visar att den föreslagna metoden har fungerat bättre än referensmetoden, inklusive KNN. | • Modellbaserade tillvägagångssätt: där olika typer av modeller, utan begränsningar, föreslås för att förbättra detektion av shillingattacker: En kartläggningsmodell mellan ratingbeteende och objektfördelning har hittats i REF. | 7,805,349 | Detecting abnormal profiles in collaborative filtering recommender systems | {'venue': 'Journal of Intelligent Information Systems', 'journal': 'Journal of Intelligent Information Systems', 'mag_field_of_study': ['Computer Science']} | 3,877 |
Abstract-Den växande populariteten av molnbaserade maskininlärning väcker en naturlig fråga om integritetsgarantier som kan tillhandahållas i en sådan inställning. Vårt arbete tar itu med detta problem i ett sammanhang där en klient vill klassificera privata bilder med hjälp av ett konvolutionellt neuralt nätverk (CNN) utbildat av en server. Vårt mål är att bygga effektiva protokoll där kunden kan få klassificeringsresultatet utan att avslöja deras inmatning till servern, samtidigt som integriteten i serverns neurala nätverk garanteras. I detta syfte designar vi GAZELLE, ett skalbart och låglatent system för säker neural nätverk inference, med hjälp av en intrikat kombination av homomorphic kryptering och traditionella två-parts beräkningstekniker (såsom förvrängda kretsar). GAZELLE lämnar tre bidrag. Först designar vi GAZELLE homomorphic krypteringsbibliotek som tillhandahåller snabba algoritmer för grundläggande homomorphic operationer såsom SIMD (single instruction multiple data) addition, SIMD multiplikation och chiffertext permutation. För det andra implementerar vi GAZELLE homomorphic linjära algebrakärnor som kartlägger neurala nätverkslager till optimerade homomorphic matris-vektor multiplikation och convolution rutiner. För det tredje designar vi optimerade protokoll för krypteringsbyte som sömlöst konverterar mellan homomorfa och förvrängda kretskodningar för att möjliggöra implementering av fullständig neural nätverksinferens. Vi utvärderar våra protokoll på riktmärke neurala nätverk utbildade på MNIST och CIFAR-10 dataset och visar att GAZELLE överträffar de bästa befintliga system som MiniONN (ACM CCS 2017) med 20× och Chameleon (Crypto Eprint 2017/1164) med 30× i online körtid. På samma sätt jämfört med helt homomorfa tillvägagångssätt som CryptoNets (ICML 2016) visar vi tre storleksordningar snabbare online run-time. | Vi noterar att idén om att kombinera homomorphic kryptering och förvrängda kretsar har dykt upp tidigare: till exempel, Gazelle REF använder det för effektiv säker neural nätverk inference. | 4,046,474 | Gazelle: A Low Latency Framework for Secure Neural Network Inference | {'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']} | 3,878 |
Fingeravtrycksbaserad indoor localization lider av sin tidskrävande och arbetsintensiv platsundersökning. Som en lovande lösning, prov crowdsourcing har nyligen främjas för att utnyttja tillfälligt insamlade prover för att bygga offline fingeravtryck databas. Men crowdsourced prover kan kommenteras med felaktiga platser, vilket väcker en allvarlig fråga om huruvida de är tillförlitliga för databaskonstruktion. I detta dokument föreslår vi en cross-domain cluster intersektionalgoritm för att väga varje prov tillförlitlighet. Vi väljer sedan ut dessa prover med högre vikt för att konstruera radioförökningsytor genom att montera polynomfunktioner. Dessutom använder vi oss av entropiliknande mått på viktkonstruerade ytor för att kvantifiera deras olika subområdessammansättningar och lokaliseringsdiskriminering i onlinepositionering. Fält mätningar och experiment visar att det föreslagna systemet kan uppnå hög lokalisering noggrannhet genom att väl hantera provet annotering fel och icke-uniform densitet utmaningar. | Lin m.fl. I REF föreslås en algoritm för cross-domain cluster intersektion för att väga varje prov tillförlitlighet och konstruera radioutbredning ytor genom polynom funktioner matchning. | 52,191,667 | Indoor Localization Based on Weighted Surfacing from Crowdsourced Samples | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 3,879 |
Abstract-I detta papper analyserar vi associationen av en användarterminal i ett två-tier nätverk (dvs. makroceller och millimetervåg små celler). Vi antog en frikopplad trådlös access där en användarterminal har frihet att välja olika basstationer (BS) i upplänk och nedlänk baserat på den mottagna strömmen och kanalens kvalitet. En praktisk blockeringsmodell där en mänsklig kropp är en blockering till millimetervåg (mmW) beaktas. En fördjupad simuleringsstudie görs för att undersöka effektiviteten hos frikopplad trådlös åtkomst i en trång miljö. Dessutom tillhandahålls en detaljerad analys av den använda blockeringsmodellens intuitivhet och matematiska dragbarhet. Till slut tas få forskningsfrågor upp om effektiviteten hos frikopplad trådlös åtkomst upp i detta dokument. | En semianalytisk analys av den frikopplade trådlösa åtkomsten finns i REF. | 3,325,654 | Analysis of the cell association for decoupled wireless access in a two tier network | {'venue': '2017 IEEE 28th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'journal': '2017 IEEE 28th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'mag_field_of_study': ['Computer Science']} | 3,880 |
Abstrakt. Den booming av Android-plattformen under de senaste åren har dragit till sig uppmärksamheten av malware utvecklare. Dock har behörighetsbaserad modell som används i Android-system för att förhindra spridning av skadlig kod, visat sig vara ineffektiv. I detta dokument föreslår vi DroidRisk, ett ramverk för kvantitativ säkerhetsriskbedömning av både Android-behörigheter och applikationer (appar) baserat på tillståndsförfrågan mönster från godartade appar och malware, som syftar till att förbättra effektiviteten i Android-tillståndssystem. Två dataset med 27,274 godartade appar från Google Play och 1.260 Android malware prover användes för att utvärdera effektiviteten av DroidRisk. Resultaten visar att DroidRisk kan generera mer tillförlitlig risksignal för att varna potentiella skadliga aktiviteter jämfört med befintliga metoder. Vi visar att DroidRisk kan också användas för att lindra överprivilegie problem och förbättra användarens uppmärksamhet på riskerna med Android-behörigheter och appar. | Wang m.fl. REF föreslog DroidRisk, en kvantitativ modell för riskbedömning av tillstånd. | 41,025,452 | Quantitative Security Risk Assessment of Android Permissions and Applications | {'venue': 'DBSec', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 3,881 |
Abstract-Intelligent konsolidering av arbetsbelastningen och dynamisk klusteranpassning erbjuder en stor möjlighet till energibesparingar i nuvarande storskaliga kluster. På grund av dessa miljöers heterogena karaktär är skalbara, feltoleranta och distribuerade konsolideringsansvariga nödvändiga för att effektivt kunna hantera sin arbetsbelastning och på så sätt spara energi och minska driftskostnaderna. De flesta av de konsolideringsförvaltare som finns nu för tiden uppfyller dock inte dessa krav. Därför är de oftast centraliserade och endast utformade för att användas i virtualiserade miljöer. I detta arbete presenterar vi arkitekturen för en ny skalbar, feltolerant och distribuerad konsolideringshanterare kallad Snooze som dynamiskt kan konsolidera arbetsbelastningen för en programvara och hårdvara heterogent storskaligt kluster som består av resurser med hjälp av virtualiserings- och SSI-teknik (Single System Image). Därför införs ett gemensamt API för övervakning och hantering av kluster, vilket ger en enhetlig och öppen tillgång till de underliggande plattformarnas funktioner. Vår arkitektur är öppen för att stödja framtida teknologier och kan enkelt utökas med övervakning av mätvärden och algoritmer. Slutligen visar en omfattande fallstudie om användning att vår strategi för att hantera energiförbrukningen i ett storskaligt kluster är genomförbar. | Till exempel Feller et al. byggt Snooze REF, en skalbar, feltolerant och distribuerad konsolideringshanterare för heterogena kluster. | 16,494,098 | Snooze: A Scalable, Fault-Tolerant and Distributed Consolidation Manager for Large-Scale Clusters | {'venue': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'journal': "2010 IEEE/ACM Int'l Conference on Green Computing and Communications & Int'l Conference on Cyber, Physical and Social Computing", 'mag_field_of_study': ['Computer Science']} | 3,882 |
Med ökande användning av internet och exponentiell tillväxt av mängden data som ska lagras och bearbetas (kallas "stora data"), har storleken på datacenter ökat kraftigt. Detta har emellertid lett till en betydande ökning av energiförbrukningen i datacenteren. Av denna anledning har det blivit nödvändigt att hantera energiförbrukningen i datacenter. I detta dokument lyfter vi fram behovet av att uppnå energieffektivitet i datacenter och kartlägga flera senaste arkitektoniska tekniker som utformats för energihantering av datacenter. Vi presenterar också en klassificering av dessa tekniker utifrån deras egenskaper. Detta dokument syftar till att ge insikter i teknikerna för att förbättra energieffektiviteten i datacenter och uppmuntra designers att uppfinna nya lösningar för att hantera den stora effektavledning av datacenter. | Mittal m.fl. REF ger en översikt över energihanteringstekniker för datacenter. | 978,927 | Power Management Techniques for Data Centers: A Survey | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,883 |
Vi presenterar OctNet, en representation för djupinlärning med sparsam 3D-data. I motsats till befintliga modeller möjliggör vår representation 3D-konvolutionella nätverk som är både djupa och högupplösta. Mot detta mål utnyttjar vi glesheten i inmatningsdatan för att hierarkiskt dela upp utrymmet med hjälp av en uppsättning obalanserade bläckfiskar där varje bladknuta lagrar en poolad funktionsrepresentation. Detta gör det möjligt att fokusera minnesallokering och beräkning till relevanta täta regioner och möjliggör djupare nätverk utan att kompromissa med upplösningen. Vi demonstrerar nyttan av vår OctNet representation genom att analysera effekterna av upplösning på flera 3D uppgifter inklusive 3D objektklassificering, orienteringsuppskattning och punktmoln märkning. 6620 naivt. Vi illustrerar detta på bild. 1 för ett 3D-klassificeringsexempel. Med tanke på 3D-maskorna på [47] voxeliserar vi inmatningen med en upplösning på 64 3 och utbildar ett enkelt 3D-konvolutionsnätverk för att minimera en klassificeringsförlust. Vi skildrar maximum av svaren över alla funktionskartor på olika lager av nätverket. Det är lätt att observera att höga aktiveringar endast sker nära objektets gränser. Motiverade av denna iakttagelse, föreslår vi OctNet, ett 3D-konvolutionsnätverk som utnyttjar denna gleshet egendom. Vårt OctNet delar hierarkiskt upp 3D-utrymmet i en uppsättning obalanserade bläckfiskar [31]. Varje bläckfisk delar 3D-utrymmet i enlighet med datatätheten. Mer specifikt, vi rekursivt split oktree noder som innehåller en datapunkt i sin domän, dvs 3D-punkter, eller mesh trianglar, stannar vid den finaste upplösningen av trädet. Därför varierar bladknutor i storlek, t.ex. kan en tom bladknuta bestå av upp till 8 3 = 512 voxlar för ett träd på djup 3 och varje bladknuta i bläckfisken lagrar en poolad sammanfattning av alla funktionsaktiveringar av den voxel den består av. Konvolutionsnätets verksamhet definieras direkt på dessa träds struktur. Därför fokuserar vårt nätverk dynamiskt på beräknings- och minnesresurser, beroende på indatans 3D-struktur. Detta leder till en betydande minskning av kraven på beräkning och minne vilket möjliggör djupt lärande vid höga upplösningar. Viktigt är att vi också visar hur viktiga nätverksoperationer (convolution, pooling eller unpooling) effektivt kan implementeras på denna nya datastruktur. Vi visar nyttan av den föreslagna OctNet på tre olika problem med tredimensionella data: 3D-klassificering, 3D-orientering uppskattning av okända objekt instanser och semantisk segmentering av 3D-punktmoln. I synnerhet visar vi att den föreslagna OctNet möjliggör betydande högre ingångsupplösningar jämfört med täta ingångar på grund av dess lägre minnesförbrukning, samtidigt som samma prestanda uppnås jämfört med motsvarande täta nätverk vid lägre upplösning. Samtidigt får vi betydande uppfarter vid resolutioner på 128 3 och över. Med hjälp av vårt OctNet, undersöker vi effekterna av hög upplösning ingångar wrt. noggrannhet i de tre uppgifterna och visa att högre upplösning är särskilt fördelaktigt för orienteringsuppskattning och semantisk punktmoln märkning. Vår kod finns tillgänglig från projektets hemsida 2. | OctNet REF introducerar nya sparsamt högupplösta 3D-representationer för 3D-objektigenkänning. | 206,596,552 | OctNet: Learning Deep 3D Representations at High Resolutions | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 3,884 |
Den ökande populariteten av platsbaserade system, som gör det möjligt för okända / opålitliga servrar att enkelt samla in enorma mängder information om användarnas plats, har nyligen börjat ta upp allvarliga integritetsproblem. I detta dokument introducerar vi geo-oskiljbarhet, ett formellt begrepp om integritet för platsbaserade system som skyddar användarens exakta plats, samtidigt som ungefärlig information -som vanligtvis behövs för att få en viss önskad tjänst - kan släppas. Denna integritet definition formaliserar det intuitiva begreppet att skydda användarens plats inom en radie r med en nivå av integritet som beror på r, och motsvarar en generaliserad version av den välkända begreppet differential integritet. Dessutom presenterar vi en mekanism för att uppnå geo-oskiljbarhet genom att lägga till kontrollerat slumpmässigt buller till användarens plats. Vi beskriver hur vi använder vår mekanism för att förbättra LBS-tillämpningar med geo-oskiljbarhet garantier utan att äventyra kvaliteten på applikationsresultaten. Slutligen jämför vi toppmoderna mekanismer från litteraturen med våra. Det visar sig att vår mekanism, bland alla mekanismer som är oberoende av tidigare, erbjuder de bästa integritetsgarantierna. | Andr es et al. I REF föreslås begreppet geo-oskiljbarhet, ett särskilt fall av differential integritet, för att skydda den exakta platsen för en användare i ett platsbaserat system. | 11,424,949 | Geo-indistinguishability: differential privacy for location-based systems | {'venue': "CCS '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,885 |
Abstract-I detta dokument presenterar vi en storskalig studie av repetitiva kodändringar i programvaruutveckling. Vi samlade in en stor datamängd på 2 841 Javaprojekt, med 1,7 miljarder källkodsrader (SLOC) vid de senaste revideringarna, 1,8 miljoner ändringar av kodändringar (0,4 miljoner rättelser), 6,2 miljoner ändrade filer och 2,5 miljarder ändrade SLOC. En förändring anses upprepas inom eller mellan projekt om den matchar en annan förändring som har skett i projektets historia respektive ett annat projekt. Vi rapporterar följande viktiga resultat. För det första kan förändringarnas repetitivitet vara så hög som 70–100 % vid små storlekar och minska exponentiellt som storleken ökar. För det andra är repetitiviteten högre och stabilare i projektöverskridandet än i projekt ett. För det tredje, att rätta ändringar upprepas på samma sätt som allmänna förändringar. Viktigt är att lära kodändringar och rekommendera dem i mjukvaruutveckling är fördelaktigt med noggrannhet för top-1 rekommendationer på över 30% och topp-3 på nästan 35%. Upprepade korrigeringar kan också vara användbara för automatisk programreparation. | Nguyen m.fl. REF presenterade en studie av upprepning av kodändringar i programvaruutveckling. | 2,503,162 | A study of repetitiveness of code changes in software evolution | {'venue': '2013 28th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2013 28th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']} | 3,886 |
Detta dokument beskriver en öppen källkod implementation av den så kallade kontinuerliga rymdspråkmodellen och dess tillämpning på statistisk maskinöversättning. Den underliggande idén med detta tillvägagångssätt är att attackera data sparseness problem genom att utföra språkmodellen sannolikhetsuppskattning i ett kontinuerligt utrymme. Projiceringen av orden och sannolikhetsuppskattningen utförs båda av ett flerskikts neuralt nätverk. Detta dokument beskriver den teoretiska bakgrunden till tillvägagångssättet, effektiva algoritmer för att hantera beräkningskomplexet, och ger genomförandedetaljer och rapporterar experimentella resultat på en mängd olika uppgifter. | CSLM REF är en verktygslåda med öppen källkod som implementerar en kontinuerlig rymdspråksmodell som har en arkitektur som liknar vår egen. | 62,228,816 | Continuous-Space Language Models for Statistical Machine Translation | {'venue': None, 'journal': 'The Prague Bulletin of Mathematical Linguistics', 'mag_field_of_study': ['Computer Science']} | 3,887 |
Äpplen, piggsvin och den mest obskyra Bob Dylan låt-är varje ämne några klick från filosofi? Inom Wikipedia är det överraskande svaret ja: nästan alla vägar leder till filosofi. Wikipedia är den största, mest noggrannt indexerade samlingen av mänsklig kunskap som någonsin samlats in. Mer än information om ett ämne är Wikipedia ett nät av naturligt framväxande relationer. Genom att följa den första länken i varje artikel konstruerar vi algoritmiskt ett riktat nätverk av alla 4,7 miljoner artiklar: Wikipedias First Link Network. Här studerar vi den engelska utgåvan av Wikipedias First Link Network för att få en inblick i hur de många artiklarna om uppfinningar, platser, människor, föremål och evenemang är relaterade och organiserade. Genom att korsa varje väg mäter vi ansamling av första länkar, banlängder, grupper av väganslutna artiklar, cykler, och det inflytande varje artikel utövar på att forma nätverket. Vi hittar skalfria distributioner som beskriver väglängd, ansamling och påverkan. Långt ifrån spridda, första länkar oproportionerligt ackumuleras på några artiklar som flödar från specifika till allmänna och kulminerar kring grundläggande begrepp som gemenskapen, staten och vetenskapen. Filosofin styr fler vägar än någon annan artikel av två storleksordningar. Vi observerar också en gravitation mot aktuella artiklar som Hälsovård och Fossil Fuel. Dessa fynd berikar vår syn på kopplingarna och strukturen i Wikipedias ständigt växande kunskapslager. | Ibrahim m.fl. har studerat de strukturer och cykler som uppstår i nätverket av endast består av de första länkarna i den engelska Wikipedia REF. | 4,892,525 | Connecting every bit of knowledge: The structure of Wikipedia's First Link Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,888 |
Abstract-Software som en tjänst eller (SaaS) är en ny mjukvaruutveckling och distribution paradigm över molnet och erbjuder informationstekniktjänster dynamiskt som "on-demand" bas över internet. Förtroende är ett av de grundläggande säkerhetskoncepten för lagring och tillhandahållande av sådana tjänster. I allmänhet integreras förtroendefaktorer i sådana befintliga säkerhetsramar för att lägga till en säkerhetsnivå till enheters samarbeten genom förtroendeförhållandet. Att utnyttja förtroendefaktorn i den säkrade molnmiljön är dock en mer komplex ingenjörsuppgift på grund av förekomsten av heterogena typer av tjänsteleverantörer och konsumenter. I detta dokument har en formell förtroendehanteringsmodell införts för att hantera förtroendet och dess egenskaper för SaaS i cloud computing-miljön. Modellen kan representera direkt förtroende, rekommenderat förtroende, rykte etc. formellt. För analysen av förtroendeegenskaperna i molnmiljön uppskattar den föreslagna metoden förtroendevärdet och osäkerheten hos varje deltagare genom att beräkna sönderfallsfunktion, antal positiva interaktioner, ryktesfaktor och tillfredsställelsenivå för den insamlade informationen. | Prajapati m.fl. REF lade fram en formell förvaltningsmodell baserad på grunderna i förtroendekarakteristika. | 1,858,436 | Trust Management Model for Cloud Computing Environment | {'venue': 'Somesh Kumar Prajapati, Suvamoy Changder, Anirban Sarkar,"Trust Management Model for Cloud Computing Environment", International Conference on Computing Communication and Advanced Network, India, PP 1-5, March 15-17, 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,889 |
Det är väl känt att, med tanke på två enkla n-sidiga polygoner, det kanske inte är möjligt att triangulera de två polygonerna på ett kompatibelt sätt, om ens val av triangulation hörn är begränsad till polygon hörn. Är det alltid möjligt att producera kompatibla trianguleringar om ytterligare hörn inuti polygonen är tillåtna? Vi ger ett positivt svar och konstruerar ett par sådana trianguleringar med O(n 2 ) nya triangulation hörn. Dessutom visar vi att det finns ett \universal" sätt att triangulera en n-sidig polygon med O(n 2 ) extra triangulation hörn. Slutligen visar vi också att skapandet av kompatibla trianguleringar kräver ett kvadratiskt antal extra hörn i värsta fall. Eftersom två enkla polygoner P 1 och P 2, var och en med n hörn, är det inte alltid möjligt att nd kompatibla trianguleringar av de två polygoner. Med andra ord, det kan inte finnas en cirkulär märkning av hörnen av varje polygon genom på varandra följande nummer 1 till n och en uppsättning n? 3 icke-korsande inre ackord i P 1, så att de öppna ackord som förenar motsvarande hörn i P 2 är åtskilda och ligger helt inuti P 2. Överväg gure 1 till här varje hexagon medger en unik triangulering, men de två trianguleringar är inte kompatibla i ovanstående mening, eftersom de tre inre ackord \fan ut" från en gemensam vertex i P 1 och bildar en triangel i P 2. Följande fråga ställdes av Goodman och Pollack G: Är det möjligt att triangulera två polygoner med samma antal hörn kompatibelt om ytterligare hörn (Steiner punkter) är tillåtna i det inre? Om ja, hur många sådana punkter krävs? | REF visar att två enkla polygoner kan trianguleras på ett kompatibelt sätt genom att använda högst O(n 2 ) Steiner hörn, där n är antalet punkter i varje polygon. | 11,479,511 | On Compatible Triangulations of Simple Polygons | {'venue': 'Comput. Geom.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,890 |
Långtidsminne (LSTM) recidiverande neurala nätverk (RNN) har visat sig ge state-of-the-art prestanda på många taligenkänning uppgifter, eftersom de kan ge den lärt dynamiskt föränderliga kontextuella fönster i all sekvens historia. Å andra sidan har de konvolutionella neurala nätverken (CNN) medfört betydande förbättringar för djupt feed-forward neurala nätverk (FFNN), eftersom de bättre kan minska spektral variation i ingångssignalen. I detta dokument föreslås en nätverksarkitektur som kallas konvolutional recidiverande neurala nätverk (CRNN) genom att kombinera CNN och LSTM RNN. I de föreslagna CRNN:erna organiseras varje talram, utan intilliggande sammanhangsramar, som ett antal lokala funktionsfixar längs frekvensaxeln, och sedan utförs ett LSTM-nätverk på varje funktionsfix längs tidsaxeln. Vi tränar och jämför FFNNs, LSTM RNNs och de föreslagna LSTM CRNNs vid olika antal konfigurationer. Experimentella resultat visar att LSTM CRNN:erna kan överskrida den senaste taligenkänningen. | I REF föreslås en nätverksarkitektur av konvolutionella återkommande neurala nätverk (CRNN) för stor ordförråd taligenkänning genom att kombinera CNN och LSTM-RNN. | 5,931,507 | Long Short-Term Memory based Convolutional Recurrent Neural Networks for Large Vocabulary Speech Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,891 |
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder, medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till alla tänkbara nivåer av täckning och konnektivitet för att stödja olika tillämpningar och miljöer med olika krav. I detta dokument presenteras utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhåll protokoll på flera viktiga sätt: 1) Vi presenterar en Coverage Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. 2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram: detta står i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. 3) Slutligen integrerar vi CCP med SPAN för att ge både täckning och konnektivitetsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer, både genom geometrisk analys och omfattande simuleringar. | Arbetet i REF härleder CCP (coverage Configuration Protocol) som kan ge olika grader av uppkopplad täckning samt presentera en geometrisk analys av förhållandet mellan täckning och konnektivitet. | 269,391 | Integrated coverage and connectivity configuration in wireless sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,892 |
Figur 1: Vårt system fångar och spårar ansiktsuttrycksdynamiken hos användarna (grå renderingar) i realtid och kartlägger dem till en digital karaktär (färgade renderingar) på motsatt skärm för att möjliggöra engagerande virtuella möten i cyberrymden. Detta dokument presenterar ett system för prestandabaserad teckenanimering som gör det möjligt för alla användare att kontrollera ansiktsuttryck av en digital avatar i realtid. Användaren registreras i en naturlig miljö med hjälp av en icke-inträngande, kommersiellt tillgänglig 3D-sensor. Enkelheten i detta förvärv enhet kommer till priset av höga bullernivåer i de förvärvade data. För att effektivt kartlägga 2D-bilder av låg kvalitet och 3D-djupkartor till realistiska ansiktsuttryck introducerar vi en ny ansiktsspårningsalgoritm som kombinerar geometri och texturregistrering med förinspelade animeringar i en enda optimering. Formulerad som en maximal efterhandsuppskattning i ett reducerat parameterutrymme utnyttjar vår metod implicit tidssammanhållning för att stabilisera spårningen. Vi visar att övertygande 3D-ansiktsdynamik kan rekonstrueras i realtid utan användning av ansiktsmarkörer, påträngande belysning, eller komplex skanning hårdvara. Detta gör vårt system enkelt att distribuera och underlättar en rad nya applikationer, t.ex. i digital gameplay eller sociala interaktioner. | Realtidsprestandabaserad ansiktsanimering som gör det möjligt för användaren att kontrollera ansiktsuttrycket av en digital avatar i realtid föreslås av REF. | 7,423,234 | Realtime performance-based facial animation | {'venue': 'SIGGRAPH 2011', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,893 |
Nyligen djupa nätverk kan memorera hela data även när etiketterna är helt slumpmässiga. För att övervinna överutrustning på korrupta etiketter, föreslår vi en ny teknik för att lära sig ett annat neuralt nätverk, som kallas MentorNet, för att övervaka utbildningen av basen djupa nätverk, nämligen StudentNet. Under utbildningen tillhandahåller MentorNet en läroplan (provvägningsschema) för StudentNet att fokusera på provet vars etikett förmodligen är korrekt. Till skillnad från den befintliga läroplanen som vanligtvis är fördefinierad av mänskliga experter, MentorNet lär sig en datadriven läroplan dynamiskt med StudentNet. Experimentella resultat visar att vårt tillvägagångssätt avsevärt kan förbättra generaliseringen av djupa nätverk som är utbildade på korrumperade träningsdata. Särskilt, så vitt vi vet, uppnår vi det bäst publicerade resultatet på WebVision, ett stort riktmärke som innehåller 2,2 miljoner bilder av verkliga bullriga etiketter. Koden finns på https://github.com/google/mentornet. | Nyligen, Jiang et al. föreslå MentorNet REF, som ger ett viktningsschema för StudentNet att fokusera på det urval vars etikett förmodligen är korrekt. | 51,876,228 | MentorNet: Learning Data-Driven Curriculum for Very Deep Neural Networks on Corrupted Labels | {'venue': 'published at ICML 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,894 |
Abstrakt. 3D handlingsigenkänning -analys av mänskliga åtgärder baserade på 3D skelettdata - blir populär nyligen på grund av dess koncishet, robusthet, och vy-invariant representation. Nya försök till detta problem föreslog att man skulle utveckla RNN-baserade inlärningsmetoder för att modellera det kontextuella beroendet inom det tidsmässiga området. I detta dokument utvidgar vi denna idé till spatio-temporala domäner för att analysera de dolda källorna till handlingsrelaterad information inom inmatningsdata över båda domänerna samtidigt. Inspirerad av det mänskliga skelettets grafiska struktur föreslår vi ytterligare en kraftfullare trädstrukturbaserad traversell metod. För att hantera buller och ocklusion i 3D-skelettdata, introducerar vi ny gating mekanism inom LSTM för att lära sig tillförlitligheten av de sekventiella indata och därmed justera dess effekt på uppdatering av den långsiktiga kontextinformation som lagras i minnescellen. Vår metod uppnår state-of-the-art prestanda på 4 utmanande referensdatauppsättningar för 3D human action analys. | Liu m.fl. REF introducerade en ny gating mekanism med LSTM-nätverk för att analysera tillförlitligheten hos ingående skelettsekvenser. | 2,654,595 | Spatio-Temporal LSTM with Trust Gates for 3D Human Action Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,895 |
Vi betraktar problemen med samhällsnormer för samarbete och rykte när det är möjligt att få "billiga pseudonymer", något som blir ganska vanligt i en mängd olika interaktioner på Internet. Detta innebär möjligheter att missköta sig utan att betala för anseendes konsekvenser. En stor grad av samarbete kan fortfarande uppstå, genom en konvention där nykomlingar "betalar sina avgifter" genom att acceptera dålig behandling från spelare som har etablerat positiva rykte. Man kan hoppas på ett öppet samhälle där nykomlingar behandlas väl, men det finns en inneboende social kostnad i att göra spridningen av rykten frivillig. Vi bevisar att ingen jämvikt kan upprätthålla betydligt mer samarbete än de avgifter-betalande jämvikten i en upprepad slumpmässig matchande spel med ett stort antal spelare där spelarna har ändliga liv och förmågan att ändra sina identiteter, och det finns en liten men icke-fördelaktig sannolikhet för misstag. Även om man skulle kunna avlägsna ineffektiviteten hos misskötta nykomlingar genom att inte tillåta anonymitet, är detta inte praktiskt eller önskvärt i en mängd olika transaktioner. Vi diskuterar användningen av inträdesavgifter, vilket gör det möjligt att lita på nykomlingar men utesluter vissa spelare med låga utbetalningar, vilket innebär att en annan ineffektivitet införs. Vi diskuterar också användningen av fria men oersättliga pseudonymer, och beskriver en mekanism som implementerar dem med hjälp av standardkrypteringsteknik, som praktiskt taget skulle kunna implementeras i elektroniska transaktioner. | Denna "billiga pseudonym" som kännetecknar onlineinteraktion innebär grundläggande begränsningar för graden av samarbete som kan uppnås och för hur väl nykomlingar behandlas av gemenskapens REF. | 2,148,621 | The Social Cost of Cheap Pseudonyms | {'venue': 'Journal of Economics and Management Strategy', 'journal': None, 'mag_field_of_study': ['Economics']} | 3,896 |
De flesta befintliga automatiska sammanfattningsalgoritmer är inriktade på flera dokument av relativt kort längd, vilket är svårt att tillämpa omedelbart på nya dokument med strukturfrihet och lång längd. I detta dokument, som syftar till nya dokument, föreslår vi ett ämnesmodellering baserat tillvägagångssätt för utvinning automatisk summering, för att uppnå en bra balans mellan kompressionsförhållande, summering kvalitet och maskin läsbarhet. Först, baserat på ämnesmodellering, extraherar vi kandidat meningarna i samband med ämnesord från ett förbehandlat nytt dokument. För det andra, med målen för kompressionsförhållande och ämnesmångfald, utformar vi en viktig utvärderingsfunktion för att välja de viktigaste meningarna från kandidat meningarna och därmed skapa en första ny sammanfattning. Slutligen slätar vi ut den första sammanfattningen för att övervinna den semantiska förvirring som orsakas av tvetydiga eller synonyma ord, för att förbättra den sammanfattande läsbarheten. Vi utvärderar experimentellt vårt föreslagna tillvägagångssätt för ett verkligt nytt dataset. Experimentet resultaten visar att jämfört med de från andra kandidatalgoritmer, varje automatisk sammanfattning som genereras av vår strategi har inte bara ett högre kompressionsförhållande, men också bättre summering kvalitet. | REF-förslag till ämnesbaserad metod för ett enda dokument med lång längd, Novel summering. | 13,752,634 | A topic modeling based approach to novel document automatic summarization | {'venue': 'Expert Syst. Appl.', 'journal': 'Expert Syst. Appl.', 'mag_field_of_study': ['Computer Science']} | 3,897 |
En viktig utmaning för automatisk upptäckt av hat och tal i sociala medier är separationen av hatpropaganda från andra tillfällen av kränkande språk. Lexikala detektionsmetoder tenderar att ha låg precision eftersom de klassificerar alla meddelanden som innehåller särskilda termer som hattal och tidigare arbete med övervakad inlärning har misslyckats med att skilja mellan de två kategorierna. Vi använde en crowd-sourced hat tallexikon för att samla tweets som innehåller hat tal nyckelord. Vi använder crowd-sourcing för att märka ett urval av dessa tweets i tre kategorier: de som innehåller hattal, bara kränkande språk, och de med ingendera. Vi utbildar en klassificerare i flera klasser för att skilja mellan dessa olika kategorier. En noggrann analys av förutsägelserna och felen visar när vi på ett tillförlitligt sätt kan skilja hatpropaganda från andra kränkande språk och när denna differentiering är svårare. Vi finner att rasistiska och homofobiska tweets är mer benägna att klassificeras som hatpropaganda men att sexistiska tweets i allmänhet klassificeras som stötande. Tweets utan uttryckligt hat sökord är också svårare att klassificera. | REF gjorde en djupgående analys av hatpropaganda på twitter och skilde mellan hatpropaganda och kränkande språk. | 1,733,167 | Automated Hate Speech Detection and the Problem of Offensive Language | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,898 |
Abstract-In overdeployed sensor nätverk, en metod för att spara energi är att hålla bara en liten del av sensorerna aktiva när som helst. I den här artikeln, vi anser problemet med att välja en minsta storlek ansluten K-omslag, som definieras som en uppsättning sensorer M sådan att varje punkt i sensornätverket "täcks" av minst K olika sensorer i M, och den kommunikationskurva som induceras av M är ansluten. För ovanstående optimeringsproblem designar vi en centraliserad approximationsalgoritm som levererar en nära-optimal (inom en faktor av O (lgn)) lösning och presenterar en distribuerad version av algoritmen. Vi presenterar också en kommunikationseffektiv lokaliserad distribuerad algoritm som empiriskt visat sig fungera bra. | Zhou et al REF generaliserade den anslutna, full täckning problem i den anslutna kcoverage problem, som syftar till att hitta en uppsättning sensorer så att varje punkt i den övervakade regionen täcks av minst k sensorer i uppsättningen av utvalda sensorer. | 75,346 | Connected K-coverage problem in sensor networks | {'venue': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'journal': 'Proceedings. 13th International Conference on Computer Communications and Networks (IEEE Cat. No.04EX969)', 'mag_field_of_study': ['Computer Science']} | 3,899 |
Nummerpost är en världslig och felbenägen uppgift. För att hitta fel förlitar sig användarna ofta på visuella kontroller för att jämföra skillnaderna mellan deras instruktioner och de siffror de faktiskt har indata, en uppgift som är svår för användarna att göra exakt. Vi föreslår därför att nummerbaserade grafiska representationer (GR) används som ett komplement till konventionella numeriska representationer (NR) för att förbättra visuella kontroller, så att användarna kan undersöka både GR och NR för att upptäcka fel. Vi utförde två experiment för att undersöka de frågor som togs upp. Experiment 1 undersökte effekterna av GR och NR på detektion av representationsskillnader (dvs. kontrollera om två GR eller NR är identiska). De två framställningarna hade en jämförande prestanda med avseende på tid och felfrekvens. I Experiment 2 undersökte vi utförandet av GR och NR med nummerinmatningsuppgifter. Samtidigt som uppgiftstiden förlängdes (ökat med 38 %), resulterade antalet inträden med GR i betydligt färre fel än utan GR (minskat med 60 %). Deltagarna hade också en hög preferens för nummerregistrering med GR. Därför är den föreslagna tekniken lovande för att minska antalet inträdesfel och att man i säkerhetskritiska tillämpningar kan förbättra säkerheten. • En ny teknik, som bygger på nummerbaserade grafiska representationer, föreslås för att hjälpa användare att upptäcka inträdesfel. • Tekniken har tre fördelar. För det första förbättrar det upptäckt av inträdesfel. För det andra finns det ingen extra kostnad för att utföra inträdesprocessen. Sist, det är oberoende av den grafiska inmatningsgränssnittet det används med. • Resultaten av två användarstudier visar hur effektiv den föreslagna tekniken är. • Tekniken kombinerar fördelarna med att använda grafer med kännedomen om konventionella numeriska notationer, vilket ger mycket bredare insikter i numerisk interaktion. | En nyligen genomförd studie av REF utvärderade fördelarna med en grafisk nummerrepresentation för att hjälpa människor att upptäcka registreringsfel. | 20,619,623 | Employing Number-Based Graphical Representations to Enhance the Effects of Visual Check on Entry Error Detection | {'venue': 'Interact. Comput.', 'journal': 'Interact. Comput.', 'mag_field_of_study': ['Computer Science']} | 3,900 |
I detta dokument presenteras utformningen av ett system för bildinsamling i realtid för att spåra Drosophilas rörelse i tredimensionellt utrymme. Systemet använder tre kalibrerade och synkroniserade kameror för att upptäcka flera flugor och integrerar de upptäckta fluga siluetterna för att konstruera tredimensionella visuella skrovmodeller av varje fluga. Vi använde ett extended Kalman filter för att uppskatta tillståndet för varje fluga, med tanke på tidigare positioner från de rekonstruerade flyga visuella skrov. Resultaten visar att vår strategi konstruerar det tredimensionella visuella skrovet på varje fluga från de upptäckta bildsilhuetterna och spårar dem robust i realtid. Systemet lämpar sig för en mer detaljerad analys av flugans beteende. | Systemet av REF, liknande i många avseenden som den vi beskriver här, spårar det visuella skrovet av flugor med hjälp av tre kameror för att rekonstruera en polygonal modell av 3D-formen av flugorna. | 2,866,613 | O fly, where art thou? | {'venue': 'Journal of The Royal Society Interface', 'journal': 'Journal of The Royal Society Interface', 'mag_field_of_study': ['Medicine', 'Biology']} | 3,901 |
Abstract-We undersöka effekterna av landmärke placering på lokalisering prestanda med hjälp av en kombination av analys och experimentell analys. För vår analys har vi härlett en övre gräns för lokaliseringsfelet för den linjära minst kvadratalgoritmen. Denna gräns återspeglar placeringen av landmärken samt mätfel vid landmärkena. Därefter utvecklar vi en ny algoritm, maxL − minE, som med hjälp av vår analys hittar ett mönster för landmärkesplacering som minimerar det maximala lokaliseringsfelet. För att visa våra resultat är tillämpliga på en mängd olika lokaliseringsalgoritmer, genomförde vi sedan en serie localization experiment med hjälp av både ett 802.11 (WiFi) nätverk samt ett 802.15.4 (ZigBee) nätverk i en verklig byggnadsmiljö. Vi använder både Mottagen Signalstyrka (RSS) och Tid-av-Ankomst (ToA) som olika modaliteter. Våra experimentella resultat visar att vår landmärkesplaceringsalgoritm är generisk eftersom de resulterande placeringarna förbättrar lokaliseringsprestandan i en mängd olika algoritmer, nätverk och olika modaliteter. | REF undersöker hur landmärkesplacering påverkar lokaliseringsprestandan och föreslår en optimal strategi för landmärkesutbyggnad för att förbättra prestandan utan att öka antalet landmärken (ca 1 landmärke per 4000 kvadratfot). | 845,211 | A Practical Approach to Landmark Deployment for Indoor Localization | {'venue': '2006 3rd Annual IEEE Communications Society on Sensor and Ad Hoc Communications and Networks', 'journal': '2006 3rd Annual IEEE Communications Society on Sensor and Ad Hoc Communications and Networks', 'mag_field_of_study': ['Computer Science']} | 3,902 |
Abstract-We introducerar Imperial College London och National University of Ireland Maynooth (ICL-NUIM) dataset för utvärdering av visuell odometri, 3D rekonstruktion och SLAM algoritmer som vanligtvis använder RGB-D data. Vi presenterar en samling handhållna RGB-D-kamerasekvenser i syntetiskt genererade miljöer. RGB-D sekvenser med perfekt mark sanning poser tillhandahålls samt en mark sanning yta modell som möjliggör en metod för kvantitativ utvärdering av den slutliga kartan eller ytrekonstruktion noggrannhet. Försiktighet har tagits för att simulera typiska observerade verkliga artefakter i syntetiska bilder genom att modellera sensorbuller i både RGB och djupdata. Även om denna datauppsättning är användbar för utvärdering av visuell odometri och SLAM-bana uppskattning, är vårt huvudsakliga fokus på att ge en metod för att jämföra den ytrekonstruktion noggrannhet som hittills har saknats i RGB-D community trots uppsjö av marksanning RGB-D dataset tillgängliga. | Den populära syntetiska ICL-NUIM dataset REF har några RGB-D sekvenser med modellerat brus av en djupsensor. | 206,850,587 | A benchmark for RGB-D visual odometry, 3D reconstruction and SLAM | {'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 3,903 |
Abstrakt. Spridningen av smartphones introducerar nya möjligheter inom digital kriminalteknik. En av anledningarna är att smartphones vanligtvis är utrustade med sensorer (t.ex. accelerometer, närhetssensor osv.), hårdvara som kan användas för att härleda användarens sammanhang. Detta sammanhang kan vara användbart i en digital undersökning, eftersom det kan bidra till att avvisa eller acceptera ett alibi, eller till och med avslöja en misstänkts handlingar eller aktiviteter. Icke desto mindre är sensordata instabila, vilket innebär att de inte finns tillgängliga i obduktionsanalysen. Det enda sättet att i rätt tid förvärva dem, om ett sådant behov uppstår under en digital undersökning, är genom programvara som samlar in dem när de genereras av den misstänktes handlingar. I detta dokument undersöker vi genomförbarheten av ad-hoc datainsamling från smartphone sensorer genom att implementera en enhetsagent för deras insamling i Android, samt ett protokoll för deras överföring. Sedan diskuterar vi vår erfarenhet av datainsamling av smartphone-sensorer, samt juridiska och etiska frågor som uppstår från deras insamling. Slutligen beskriver vi scenarier kring agentens förberedelser och användning i en digital utredning. Nyckelord: Smartphones, Digital Forensics, Investigation Models, Sensor, Sensor Data, Informationsinsamling, Android. Spridningen av smartphones 1 -enheter med ökande popularitet på grund av deras bearbetning och nätverksfunktioner, låga kostnader och dimensioner - introducerar nya utmaningar för digital kriminalteknik. Detta gäller, eftersom den heterogenitet och progressiva utvecklingen av smartphone-plattformar ökar komplexiteten i en digital utredning, tillsammans med de färdigheter och verktyg som krävs för att reagera på ett brott eller en incident. Till exempel, de olika hårdvara och programvara, som erbjuds av smartphone-plattformar för att öka sin marknadsandel, hindrar en rättsmedicinsk undersökning. Detta sker eftersom dedikerad programvara måste implementeras och kablar som ska förvärvas per fall. Dessutom tenderar smartphone-kablar (data eller strömkablar) att vara tillgängliga endast så länge som en smartphone-modell finns på marknaden. Fler svårigheter uppstår i undersökningen av gamla enheter som inte stöds längre. Tillsammans med populariteten av smartphones, en av sensorer (dvs.. Hårdvara som mäter användarens sammanhang) ökar också i tredje parts programvara, såsom spel och navigationsappar. I ett tidigare papper har vi hävdat att sensordata är en datakälla som kan samlas in för digital kriminalteknik (Mylonas et al., 2012b). Sensordata kan vara till nytta vid vissa brott för att lagligt utläsa användarens sammanhang. I detta sammanhang kan brottsbekämpande myndigheter få viktig information i en digital utredning, både när det gäller upptäckt och påföljder och förebyggande av brott. Samtidigt är denna typ av datainsamling ofta påträngande (Mylonas et al., 2012c) och kan väcka etiska och juridiska frågor som rör 1 Med termen smartphone hänvisar vi till den enhet som följer definitionen av Theoharidou et al. (2012)............................................................................................ 2 Sekretess för telekommunikation och de berörda personernas privatliv. På grund av intrång i dessa grundläggande rättigheter får sådana former av övervakning och insamling av de olika digitala bevisen endast genomföras i samband med brott som enligt lagen betraktas som "allvarliga" eller "nationella säkerhetshot". En generaliserad och urskillningslös samling av förmodligen användbara bevis mot individer på måfå skulle uppfatta alla medborgare som potentiellt framtida syndare. En sådan modell för rutinmässig underrättelseverksamhet mot slumpmässiga medborgare skulle kunna "blyga upp hörnstenarna i rättsstatsprincipen" (Hoffmann-Riem, 2002). Smartphone kriminalteknik är en framväxande disciplin som för närvarande verkar vara fortfarande i sin linda. Icke desto mindre har konsumtion av smartphones triggat den rättsmedicinska gemenskapen att fokusera på dessa enheters tekniska detaljer samt insamlingen av deras data. Därför har verktyg skapats som utför antingen fysiska (dvs. låg nivå, bit till bit), eller logisk (dvs. data organiserade i logiska objekt, t.ex. Kataloger) datainsamling i: a) Windows Mobile (Casey et al., 2010; Klaver, 2010; Rehault, 2010; Grispos, 2011), b) Symbian (Mokhonoana och Olivier, 2007; Distefano och jag, 2008; Pooters, 2010; Thing och Chua, 2012; Thing och Tan, 2012), c) iOS (Zdziarski, 2008; Bader och Baggili, 2010; Husain och Sridhar, 2010; Jung et al., 2011), och d) Android (Lessard och Kessler, 2010; Thing et al., 2010; Vidas et al., 2011; Hoog, 2011; Mutawa et al., 2012; Park et al., 2012; Sylve, 2012). Hittills har den praktiska insamlingen av sensordata inte studerats tillräckligt i rättsmedicinsk litteratur. Detta beror på att de är tidskänsliga och flyktiga data och därför inte är tillgängliga för analys under obduktionstekniker. I (Mylonas et al., 2012b), föreslog vi ett system för ad hoc insamling av smartphone data. I särskilda fall och på vissa villkor kan lagen tillåta insamling av smarttelefondata för proaktiv användning och för brottsförebyggande ändamål. Dessutom kan proaktiv insamling av en smartphones sensordata ske i kritisk infrastruktur för incidenthantering och kriminaltekniska beredskapsskäl när enheten anses vara en del av denna infrastruktur och användningen av sådan påträngande kontroll helt överensstämmer med organisationens säkerhetspolitik, dess kultur och befintliga rättsliga ramar. Till exempel, säkerhetspolicyn för en kritisk infrastruktur kan specificera anställdas användning profilering - förutsatt att den anställdes informerade samtycke - för att mildra insiderhotet via en insider förutsägelse modell (Kandias, etc., 2010) Papperet bidrar med följande: a) Utveckling av en utredning ramar taxonomi som kan tillämpas i smartphone kriminalteknik. (b) Studie av smartphone-sensorerna som en potentiell datakälla för digital kriminalteknik. (c) Identifiering av sårbarheter i Android säkerhetsmodell som möjliggör ad-hoc förvärv av sensorer data. (d) Genomförande i Android av förvärv programvara och transportprotokollet av den proaktiva undersökningssystemet som föreslogs i (Mylonas et al., 2012b). e) Utvärdering av genomförandet i en laboratoriemiljö och utbyte av erfarenheter när det gäller insamling av sensordata. (f) En grundlig analys av rättsliga och etiska frågor som uppstår vid ad hoc-insamling av sensordata. Tidningen är organiserad enligt följande. I nästa avsnitt ingår taxonomi för de digitala utredningsramar som kan användas i smartphones kriminalteknik. Avsnitt 3 behandlar sensordata i samband med digital kriminalteknik. I avsnitt 4 presenterar vi vår implementering för fjärr-, ad-hoc sensor datainsamling från smartphones. Sedan sammanfattar vi vår erfarenhet av datainsamling av smartphone-sensorer med hjälp av vårt verktyg och beskriver ett antal scenarier för dess användning och förberedelse (avsnitt 5). Avsnitt 6, inkluderar de etiska och juridiska frågor som uppstår vid ad-hoc datainsamling från smartphone-sensorer. Slutligen innehåller avsnitt 7 en diskussion om vår strategi och våra slutsatser. En Digital Forensic Investigation Framework (DFIF) beskriver förfaranden som äger rum före, under och efter utredning av fysiska eller digitala brottsplatser. Dessa frame-3-verk hänvisar till metoder och tekniker som kan samla in, analysera och tolka digitala bevis som är lämpliga för en rättsmedicinsk utredning. Denna undersökning kan utlösas antingen från interna källor, t.ex. i en företagsutredning, eller från externa undersökningar, t.ex. bevis kommer att läggas fram för att stödja en hypotes i domstolarna. Detta avsnitt fokuserar på den DFIF som har föreslagits, och är lämpliga, för användning i mobiltelefon kriminalteknik, d.v.s. digitala bevis samlas in från en mobiltelefon - antingen funktion telefon eller smartphone (Theoharidou et al., 2012). Vi organiserar deras presentation, från abstrakt DFIF till mer enhetsspecifika ramar, dvs.. I a) abstrakt DFIF, b) DFIF för funktionstelefoner och c) DFIF för smartphones. Abstrakta utredningsramar används i stor utsträckning för insamling och analys av digitala bevis utan att fokusera på apparaternas tekniska "muttrar och skruvar". Dessa ramar bygger successivt på varandra. Deras förfaranden används ofta som grund för konstruktion av senare ramar som är mer tekniskt specifika. Reith och Al. (2002) föreslå en abstrakt undersökningsram som omfattar nio faser, nämligen identifiering, förberedelse, strategi för tillvägagångssätt, bevarande, insamling, undersökning, analys, presentation och återlämnande av bevis. Författarna karakteriserar sitt arbete, som utvidgar arbetet från arbetsgruppen för digital teknik (DFRWS, 2001), som abstrakt eftersom det är oberoende av teknik och brottstyp. Den undersökningsram som föreslås i (Casey, 2004) omfattar sju steg, nämligen tillstånd och förberedelse, identifiering, dokumentation, insamling och bevarande, undersökning och analys, återuppbyggnad och rapportering. Dokumentation är en pågående process som äger rum i alla ramfaser som en grundläggande egenskap i undersökningen och inte betraktas som en fristående fas. Carrier och Spafford (2003; föreslå ett ramverk som bygger på processen att undersöka fysiska brottsplatser. Ramverket hjälper utredaren att utveckla och testa hypoteser, samt upptäcka insikter om händelser som har inträffat på brottsplatsen. Detta ramverk omfattar fem faser: beredskap, utplacering, fysisk utredning av brottsplatser, undersökning av digitala brottsplatser och presentation. Bland dem är den första fasen av intresse eftersom den omfattar de nödvändiga stegen för snabbare incidenthantering, dvs. Utredningsenhetens utbildning, insamling och utbildning av nödvändig utrustning. I samma perspektiv kan hänvisning till kriminalteknisk beredskap hittas i företagssystem som integrerar mekanismer för hantering av säkerhetstillbud (Tan, 2001; Weise och Powell, 2005). Den undersökningsram som föreslås av Ciardhuáin (2004) är oberoende av det organisatoriska/tekniska sammanhanget och syftar till att ha en tvärvetenskaplig karaktär, dvs. inte bara tillämpas av tekniskt kunniga användare. I detta sammanhang kan ramverket tillämpas av förstahandssvar, utredare, IT-chefer och revisorer. Ramverket beskriver tretton steg, nämligen: medvetenhet, tillstånd, planering, anmälan, sökning och identifiering av bevis, insamling, transport, lagring, undersökning, hypotes, presentation, bevis/försvar, och spridning. Beebe och Clark (2005) föreslår en undersökningsram som – tvärtemot de ovan nämnda rambestämmelserna – är flerdelad. Ramverket omfattar sex faser på hög nivå: förberedelse, incidentrespons, datainsamling, dataanalys, resultatpresentation och stängning av tillbud. Författarna föreslår bevistriage där insamlade data prioriteras utifrån deras betydelse, vilket minskar mängden data som skickas till labbet för undersökning. I samma sammanhang, Rogers et al. (2006) Redogör för rättsmedicinsk triage i tidskänsliga undersökningar. Deras utredningsramar är skräddarsydda för kriminalteknik på plats, dvs. Utredningen utförs på brottsplatsen utan att någon produkt skickas till ett labb för en uttömmande analys. Den omfattar följande sex faser: planering, triage, användnings-/användarprofiler, kronologi/tidslinje, Internetaktivitet och fallspecifika bevis. | Themis är en arkitektur som samlar in data från sensorer i smartphones REF. | 29,854,032 | Smartphone sensor data as digital evidence | {'venue': 'Computers & Security', 'journal': 'Computers & Security', 'mag_field_of_study': ['Computer Science']} | 3,904 |
Syfte-Att automatiskt känna igen de viktigaste komponenterna i fonden på digitala färgbilder. Metoder-De viktigaste dragen i en fundus retinal bild definierades som den optiska skivan, fovea, och blodkärl. Metoder beskrivs för deras automatiska igenkänning och placering. 112 retinala bilder förbehandlades via adaptiv, lokal kontrastförbättring. De optiska skivorna lokaliserades genom att identifiera området med den största variationen i intensitet av angränsande pixlar. Blodkärl identifierades med hjälp av ett flerskikts perceptronneuralt nät, för vilket ingångarna härleddes från en huvudkomponentanalys (PCA) av bild- och kantdetekteringen av den första komponenten i PCA. Foveasen identifierades med hjälp av matchande korrelation tillsammans med egenskaper typiska för en fovea-till exempel, mörkaste området i närheten av den optiska skivan. De viktigaste delarna av bilden identifierades av en erfaren oftalmolog för jämförelse med datoriserade metoder. Resultat-Sensitiviteten och specificiteten av igenkännandet av varje retinal huvudkomponent var följande: 99,1% och 99,1% för den optiska skivan; 83,3% och 91,0% för blodkärl; 80,4% och 99,1% för fovea. Slutsatser-I denna studie den optiska disk, blodkärl, och fovea upptäcktes noggrant. Identifieringen av de normala komponenterna i näthinnans bild kommer att underlätta den framtida upptäckten av sjukdomar i dessa regioner. I diabetesretinopati kan till exempel en bild analyseras med avseende på retinopati med avseende på synhotande komplikationer såsom disk- neovaskularisering, vaskulära förändringar eller exsudation av foveal. (Br J Oftalmol 1999,83:902-910) | Sinthanayotin m.fl. REF föreslog en metod för att lokalisera den optiska skivan baserat på området med den högsta variationen i intensitet av angränsande pixlar och fovea genom att matcha korrelation tillsammans med egenskaperna hos typiska fovea. | 23,660,024 | Automated localisation of the optic disc, fovea, and retinal blood vessels from digital colour fundus images | {'venue': 'The British journal of ophthalmology', 'journal': 'The British journal of ophthalmology', 'mag_field_of_study': ['Medicine']} | 3,905 |
I denna studie fastställde vi först modellen med autoregressivt integrerat glidande medelvärde (ARIMA) och grå prediktiv modell (GM) baserat på den uppskattade nationella prevalensen av ECC med metaanalys från publicerade artiklar. De sammanslagna uppgifterna från 1988 till 2010 användes för att fastställa modellen, medan uppgifterna från 2011 till 2013 användes för att validera modellerna. De två modellernas monterings- och förutsägelsenoggrannhet utvärderades med hjälp av det genomsnittliga absoluta felet (MAE) och det genomsnittliga absoluta procentfelet (MAPE). Sedan förutspådde vi den årliga prevalensen från 2014 till 2018, som var 55,8%, 53,5%, 54,0%, 52,9%, 51,2% enligt ARIMA-modellen och 52,8%, 52,0%, 51,2%, 50,4%, 49,6% av GM. Den nedåtgående trenden för ECC-prevalensen kan tillskrivas den socioekonomiska utvecklingen och förbättrade offentliga hälso- och sjukvårdstjänster i Kina. Sammanfattningsvis kan både ARIMA- och GM-modeller tillämpas väl för att förutsäga och analysera utvecklingen av ECC; monterings- och testfelen som genereras av ARIMA-modellen var lägre än de som erhålls från GM. Den tidiga barndom karies (ECC), tand förfall inträffade i någon primär tand i ett barn 71 månader eller yngre 1, har rapporterats som den vanligaste infektionssjukdomen hos barn. ECC-prevalensen i Kina är jämförelsevis hög, 65,5 % för 1-6-åringar och 66,1 % för 5-åringar 2, långt ifrån målet av WHO " hälften av de 6-åriga barnen är kariesfria" 3. Det har en negativ inverkan inte bara på barns kostintag, tal och dagliga rutinaktiviteter, men också på deras fysiologiska hälsa 4, 5. Kina är ett snabbt växande land med världens största barnpopulation 6. Barns munhälsa har blivit ett stort folkhälsoproblem i Kina. För att bättre underlätta en uttrycklig och kvantitativ inriktning för den framtida planen för oral hälsa hos dessa befolkningsgrupper behövs därför en tillförlitlig prediktionsmetod för att förstå ECC-trenden. Prognostekniker, som i stor utsträckning har tillämpats för att analysera förekomster, utveckling, och framtida trender av sjukdomar, såsom tuberkulos 7, malaria 8, hepatit 9, diabetiker 10 och influensa 11, fungerar effektivt som ett policystödjande verktyg. Det första steget för att etablera prognosmodeller var att förvärva tidssekvensen 12. Traditionellt kom de uppgifter som användes för prognostisering från de regionala rapporterna eller övervakningsuppgifterna. Vi kan dock knappast få fram seriedata om ECC-prevalensen per år. Sedan 1980-talet har det kinesiska hälsoministeriet investerat stora mänskliga och ekonomiska resurser för att genomföra nationell muntlig epidemiologi undersökning varje årtionde. Den första nationella undersökningen genomfördes 1982 och den undersökta befolkningen var huvudsakligen elever från grund- och gymnasieskolor. I den andra och tredje nationella muntliga undersökningen 1995 och 2005 13, 14, 11 och 30 Publicerad: xx xx xxxx OPEN www.nature.com/science reports/ 2 VETENSKAPLIGA REPORts på 7: 6507 | Ett relaterat arbete som föreslår CADx för att förbättra oral hälsa förutsägelse utvecklas av Zhang et al. REF, där en autoregressiv integrerad rörlig genomsnittsmodell utförs och en grå prediktiv modell för uppskattning av den nationella prevalensen av karies i tidig barndom från 2014 till 2018, visar att den högsta årliga prevalensen skulle vara 55,8 %, tillskrivs den socioekonomiska utvecklingen och den offentliga hälso- och sjukvården. | 7,256,369 | Predicting trend of early childhood caries in mainland China: a combined meta-analytic and mathematical modelling approach based on epidemiological surveys | {'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Geography', 'Medicine']} | 3,906 |
Abstrakt. Vi presenterar en ny hierarkisk tripletförlust (HTL) som automatiskt kan samla in informativa träningsprover (tripletter) via ett definierat hierarkiskt träd som kodar global kontextinformation. Detta gör att vi kan hantera den huvudsakliga begränsningen av slumpmässig provtagning i utbildning en konventionell triplet förlust, vilket är en central fråga för djup metrisk inlärning. Våra viktigaste bidrag är tvåfaldiga. (i) vi konstruerar ett hierarkiskt klass-nivå träd där angränsande klasser slås samman rekursivt. Den hierarkiska strukturen fångar naturligt den inneboende datadistributionen över hela datauppsättningen. (ii) Vi formulerar problemet med triol insamling genom att införa en ny överträdelse marginal, som beräknas dynamiskt baserat på det utformade hierarkiska trädet. Detta gör det möjligt att automatiskt välja meningsfulla hårda prover med vägledning för globala sammanhang. Det uppmuntrar modellen att lära sig mer diskriminerande egenskaper från visuella liknande klasser, vilket leder till snabbare konvergens och bättre prestanda. Vår metod utvärderas på uppdrag av bildsökning och ansiktsigenkänning, där den överträffar standard trippelförlusten avsevärt med 1%18%. Det uppnår nya toppmoderna resultat på ett antal riktmärken, med mycket färre lärande iterationer. | REF väljer hårda trioler med en dynamisk kränker marginal från ett hierarkiskt klass-nivå träd. | 52,956,249 | Deep Metric Learning with Hierarchical Triplet Loss | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,907 |
Det typiska AI problemet är att göra en plan för de åtgärder som ska utföras av en controller så att det kan komma in i en uppsättning slutliga situationer, om det började med en viss initial situation. Planerna, och relaterade vinnande strategier, råkar vara ändliga i fallet med ett begränsat antal tillstånd och ett begränsat antal omedelbara åtgärder. Situationen blir mycket mer komplex när vi hanterar planering under tidsosäkerhet orsakad av åtgärder med fördröjda effekter. Här inför vi en trädbaserad formalism för att uttrycka planer, eller vinnande strategier, i ändliga tillståndssystem där åtgärder kan ha kvantitativt fördröjda effekter. Eftersom förseningarna är icke-deterministiska och kontinuerliga, behöver vi en oändlig förgrening för att visa alla möjliga förseningar. Icke desto mindre visar vi under rimliga antaganden att oändliga vinnande strategier som kan uppstå i detta sammanhang kan fångas upp av ändliga planer. Ovanstående planeringsproblem specificeras i logiska termer inom ett hornfragment av affin logik. Fördelen med linjär logik är bland annat att vi lätt kan fånga upp "förebyggande/förväntande" planer (i vilka en ny åtgärd β kan vidtas någon gång under den pågående tiden för en åtgärd α genomförs, för att förberedas innan åtgärd α slutförs). I detta dokument föreslår vi en heltäckande och lämplig logisk modell för stark planering under tidsosäkerhet som tar upp oändlighetsfrågor. I synnerhet etablerar vi en direkt överensstämmelse mellan linjära logiska bevis och planer, eller vinnande strategier, för åtgärder med kvantitativa fördröjda effekter. | I REF införlivades tidsmässiga begrepp i åtgärder som gjorde det möjligt för dem att få kvantitativt fördröjda effekter. | 205,345,609 | Linear logic as a tool for planning under temporal uncertainty | {'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science']} | 3,908 |
Sensornätverk innefattar ofta övervakning av mobila fenomen. Vi anser att denna uppgift kan underlättas av ett spatiotemporalt multicast-protokoll som vi kallar "mobicast". Mobicast är en ny spatiotemporal multicast protokoll som distribuerar ett meddelande till noder i en leveranszon som utvecklas över tid på något förutsägbart sätt. En viktig fördel med mobicast är dess förmåga att tillhandahålla tillförlitlig och just-in-time meddelandeleverans till mobila leveranszoner på toppen av en slumpmässig nätverk topologi. Mobicast kan i teorin uppnå goda spatiotemporala leveransgarantier genom att begränsa kommunikationen till en mobil speditionszon vars storlek bestäms av det globala värsta tänkbara värde som förknippas med en kompaktitetsmätare definierad över nätets geometri (enligt en rimlig uppsättning antaganden). I detta arbete studerade vi först kompaktitetsegenskaperna hos sensornätverk med enhetlig distribution. Resultaten av denna studie motiverar tre tillvägagångssätt för att förbättra effektiviteten av spatiotemporal multicast i sådana nätverk. För det första, spatiotemporala multicast protokoll kan utnyttja den grundläggande avvägningen mellan leveransgarantier och kommunikation overhead i spatiotemporal multicast. Våra resultat tyder på att i sådana nätverk, en mobicast protokoll kan uppnå relativt stora besparingar i meddelande vidarebefordring overhead genom att något avlasta leveransgarantin, t.ex. genom att optimistiskt välja en speditionszon som är mindre än den som behövs för en 100% leveransgaranti. För det andra kan spatiotemporal multicast utnyttja lokala kompaktitetsvärden för högre effektivitet för nätverk med icke enhetlig rumslig distribution av kompaktitet. För det tredje, för slumpmässig jämnt distribuerade sensornätverk distribution, kan man välja en utplacering densitet för att bäst stödja spatiotemporal kommunikation. Vi utforskade också alla dessa riktningar via simulering och resultaten presenteras i detta dokument. | Mobicast REF definierar en meddelandespridningsalgoritm för att driva meddelanden till noder som faller i en region framför ett rörligt mål. | 7,611,602 | Spatiotemporal multicast in sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,909 |
Den namngivna Data Networking (NDN) är en ny föreslagen Internetarkitektur baserad på Content-Centric Networking, som omvandlar data, istället för värdar, till en förstklassig enhet. En av de största utmaningarna är dock att stödja intelligent vidarebefordran av intressen över flera vägar samtidigt tillåta en obegränsad namnrymd. För att ta itu med denna utmaning, föreslår detta dokument en Greedy Ant Colony Forwarding (GACF) algoritm som använder den ISP-baserade aggregering för att minska innehållet namngivning utrymme. Det finns två sorters myror i GACF. En är Hello Ant som används för att upptäcka alla möjliga vägar och optimera dem; den andra är Normal Ant som används för att få data och förstärka optimeringen av vägarna samtidigt. GACF-algoritmen är en kvalitets- och servicemedveten vidarebefordringsalgoritm. Den minskar på ett anpassningsbart sätt de effekter som det dynamiska komplexa nätet ger upphov till. | Förslaget av Greedy Ant Colony Forwarding (GACF) algoritm finns också för intelligent och effektivt intresse vidarebefordring över flera rutter REF. | 55,419,171 | A greedy ant colony forwarding algorithm for Named Data Networking | {'venue': 'Proceedings of the Asia-Pacific Advanced Network', 'journal': 'Proceedings of the Asia-Pacific Advanced Network', 'mag_field_of_study': ['Computer Science']} | 3,910 |
Nyttan av Twitter-data som medium för att stödja övervakning av den psykiska hälsan på befolkningsnivå är inte helt klarlagd. I ett försök att bättre förstå den prediktiva kraften hos övervakade maskininlärningsklassificeringar och påverkan av funktionsuppsättningar för att effektivt klassificera depressionsrelaterade tweets på en stor skala, genomförde vi två funktionsstudieexperiment. I det första försöket bedömde vi bidrag från funktionsgrupper som lexikal information (t.ex. unigrams) och känslor (t.ex. starkt negativa) med hjälp av en funktionsablation studie. I det andra experimentet bestämde vi percentilen av topprankade funktioner som gav optimal klassificeringsprestanda genom att tillämpa en trestegsmetod för eliminering av funktioner. I det första försöket observerade vi att lexikala egenskaper är avgörande för att identifiera depressiva symtom, speciellt för nedstämdhet (-35 poäng) och för störd sömn (-43 poäng). I det andra experimentet observerade vi att den optimala F1-poängsprestandan för topprankade funktioner i percentiler varierade mellan olika klasser, t.ex. trötthet eller energiförlust (5:e percentilen, 288 funktioner) till nedstämdhet (55:e percentilen, 3,168 funktioner) vilket tyder på att det inte finns något konsekvent antal funktioner för att förutsäga depressiva tweets. Vi drar slutsatsen att enkla lexikala funktioner och reducerade funktionsuppsättningar kan ge jämförbara resultat med större funktionsuppsättningar. | I ett verk har REF-författare utfört två studieexperiment för att använda den prediktiva kraften hos övervakade maskininlärningsklassificeringar och studera påverkan av funktionsuppsättningar för klassificering av depressionsrelaterade tweets. | 15,612,233 | Feature Studies to Inform the Classification of Depressive Symptoms from Twitter Data for Population Health | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,911 |
Stationära komplexa nätverk har studerats ingående under de senaste tio åren. Många naturliga system är dock kända för att utvecklas kontinuerligt på lokal ('mikroskopisk') nivå. Att förstå reaktionerna på riktade attacker från ett växande nätverk kan belysa både hur man utformar robusta system och hittar effektiva attackstrategier. I detta dokument studerar vi empiriskt svaret på riktade attacker från de vetenskapliga samarbetsnätverken. Först visar vi att nätverket för vetenskapligt samarbete är ett komplext system som utvecklas intensivt på lokal nivå - färre än 20 procent av det vetenskapliga samarbetet varar mer än ett år. Sedan undersöker vi effekten av framstående forskares plötsliga död på utvecklingen av deras tidigare medarbetares samarbetsnätverk. Vi observerar särskilt att den plötsliga döden, som motsvarar avlägsnandet av centrum för den framstående vetenskapsmannens egocentriska nätverk, inte påverkar den topologiska utvecklingen av det kvarvarande nätverket. Icke desto mindre är avlägsnande av den eminenta navknutan exakt den strategi man skulle anta för en effektiv riktad attack på ett stationärt nät. Därför använder vi detta växande samarbetsnätverk som en experimentell modell för angrepp på ett växande komplext nätverk. Vi finner att sådana attacker är ineffektiva, och drar slutsatsen att det vetenskapliga samarbetsnätverket är spåren av kunskapsspridning på ett större underliggande socialt nätverk. Den underliggande strukturens redundans fungerar faktiskt som en skyddsmekanism mot sådana nätverksattacker. | Däremot, Liu et al. REF studerade attackresiliens empiriskt och visade att de riktade attackerna, såsom en framstående forskares plötsliga död, kanske inte har någon större inverkan på utvecklingen av samarbetsnätverk. | 14,876,041 | Attack Resilience of the Evolving Scientific Collaboration Network | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Biology', 'Medicine']} | 3,912 |
Abstract-Vi föreslår en hybrid personlig summering ram som kombinerar adaptiv snabbspolning och innehåll trunkering för att generera bekväma och kompakta videosammanfattningar. Vi formulerar videosammanfattning som ett diskret optimeringsproblem, där den optimala sammanfattningen bestäms genom att anta Lagrangian avkoppling och konvex-hull approximation för att lösa ett resursfördelningsproblem. För att kompromissa uppspelningshastighet och perceptuell komfort anser vi att information som är kopplad till det stillsamma innehållet i scenen, vilket är viktigt för att utvärdera relevansen av en video, och information i samband med scenen aktivitet, vilket är mer relevant för visuell komfort. Vi utför clip-nivå snabbspolning genom att välja uppspelningshastigheter från diskreta alternativ, som naturligt inkluderar innehåll trunkering som specialfall med oändlig uppspelningshastighet. Vi demonstrerar den föreslagna sammanfattningsramen i två användningsfall, nämligen sammanfattning av utsända fotbollsvideor och övervakningsvideor. Objektiva och subjektiva experiment utförs för att visa den föreslagna metodens relevans och effektivitet. Index Villkor-Adaptive snabbspedition, personlig videosammanfattning, resursfördelning. | I ett resursallokeringsbaserat ramverk har uppspelningshastigheten och den perceptuella komforten varit de viktigaste elementen för generering av individanpassade sammanfattningar REF. | 6,481,220 | Resource Allocation for Personalized Video Summarization | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 3,913 |
Vi presenterar en gemensam sannolikhetsmodell för statistisk maskinöversättning, som automatiskt lär sig ord och fras motsvarigheter från tvåspråkiga corpora. Översättningar producerade med parametrar som uppskattas med hjälp av den gemensamma modellen är mer exakta än översättningar producerade med IBM Model 4. De flesta av de bullriga kanalbaserade modeller som används i statistisk maskinöversättning (MT) (Brown et al., 1993) är villkorliga sannolikhetsmodeller. I den bullriga-kanal ram, varje käll mening e i en parallell corpus antas "generera" en mål mening f med hjälp av en stokastisk process, vars parametrar uppskattas med traditionella EM-tekniker (Dempster et al., 1977). Den generativa modellen förklarar hur källord kartläggs i målord och hur målord återordnas för att ge välformade målmeningar. En mängd olika metoder används för att redogöra för omordning skede: ordbaserade (Brown et al., 1993), mallbaserade, och syntax-baserade, för att bara nämna några. Även om dessa modeller använder olika generativa processer för att förklara hur översatta ord återordnas i ett målspråk, är de på lexikal nivå ganska lika; alla dessa modeller antar att källord är individuellt översatta till målord. 1 1 De enskilda orden kan innehålla ett icke-existerande element, kallat NUL. Vi misstänker att MT-forskare hittills har valt att automatiskt lära sig översättningslexikon definierade endast över ord av främst pragmatiska skäl. Storskalig tvåspråkig korpora med ordförråd i intervallet hundratusentals ger mycket stora översättningslexikon. Att anpassa sannolikheterna i samband med dessa stora lexikon är en tillräckligt svår uppgift för att avskräcka en från att försöka skala upp till att lära sig frasbaserade lexikon. Tyvärr ger handel med utrymmeskrav och effektivitet för förklarande kraft ofta icke-intuitiva resultat. Betrakta till exempel den parallella corpus av tre mening par visas i figur 1. Intuitivt, om vi tillåter att några källord anpassas till alla målord, är den bästa anpassningen som vi kan komma på den i Figur 1.c. Sentence par (S2, T2) erbjuder starka bevis för att "b c" i språk S betyder samma sak som "x" i språk T. På grundval av detta bevis, förväntar vi oss att systemet också lär sig från mening par (S1, T1) att "a" i språk S betyder samma sak som "y" i språk T. Tyvärr, om man arbetar med översättningsmodeller som inte tillåter Target ord att anpassas till mer än ett källord -som det är fallet i IBM modeller (Brown et al., 1993) -det är omöjligt att lära sig att frasen "b c" i språk S betyder samma sak som ord "x" i språk T. IBM modell 4 (Brown et al., 1993), till exempel, konvergerar till ordet anpassningar som visas i figur 1 b och lär sig översättning probabilitys som visas i figur 1 a. 2 Eftersom man i IBM-modellen inte kan länka ett målord till mer än ett källord, utbildningsproceduren 2 För att träna IBM-4-modellen, använde vi Giza (Al-Onaizan et al., 1999). | I REF presenteras en gemensam sannolikhetsmodell som uppskattar sannolikheten för tolkning från en parallell corpus. | 1,567,400 | A Phrase-Based, Joint Probability Model For Statistical Machine Translation | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,914 |
Detta papper visar att språkliga tekniker tillsammans med maskininlärning kan extrahera högkvalitativa substantiv fraser i syfte att ge kärnan eller sammanfattningen av e-postmeddelanden. Vi beskriver en uppsättning jämförande experiment med hjälp av flera maskininlärningsalgoritmer för uppgiften av framträdande substantiv frasextraktion. Tre huvudsakliga slutsatser kan dras av denna studie: (i) modifierarna av en substantiv fras kan vara semantiskt lika viktiga som huvudet, för uppgiften att gisting, (ii) språklig filtrering förbättrar prestandan av maskininlärning algoritmer, (iii) en kombination av klassificerare förbättrar noggrannheten. | REF ) beskriva arbetet med att sammanfatta enskilda e-postmeddelanden med hjälp av maskininlärning metoder för att lära sig regler för framträdande substantiv fras extraktion. | 11,175,910 | Combining Linguistic And Machine Learning Techniques For Email Summarization | {'venue': 'Workshop On Computational Natural Language Learning CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,915 |
Sammanhang. Många rapporter stöder det faktum att vissa psykosociala aspekter av programvaruingenjörer är nyckelfaktorer för kvaliteten på programvaruutvecklingsprocessen och dess resulterande produkter. Baserat på några av författarnas erfarenheter efter mer än ett år av mindfulness-en meditationsteknik som syftar till att öka tydligheten i sinne och medvetenhet-vi gissade att det kunde vara intressant att empiriskt utvärdera om mindfulness påverkar positivt inte bara beteende men också professionella prestanda programvaruingenjörer. Mål. I denna uppsats presenterar vi en kvasi-experiment som utförs vid universitetet i Sevilla för att utvärdera om studenter i Software Engineering & Information Systems förbättrar sina konceptuella modellering färdigheter efter den fortsatta dagliga praktiken av mindfulness under fyra veckor. Metod. Eleverna delades in i två grupper: en grupp tränade mindfulness och den andra, kontrollgruppen, tränades i offentligt tal. För att studera det möjliga orsaks- och effektförhållandet mättes effektiviteten (frekvensen av modellerade element korrekt identifierade) och effektiviteten (antalet modellerade element korrekt identifierade per tidsenhet) hos de elever som utvecklade konceptuella modelleringsuppgifter före och efter att ha tagit mindfulness- och talövningar. Resultat. Experimentresultaten har visat att de elever som praktiserade mindfulness har blivit effektivare när det gäller att utveckla konceptuella modeller än de som deltog i de offentliga föredragen. När det gäller effektivitet har vissa förbättringar observerats, även om de inte är lika betydande som när det gäller effektivitet. Slutsatser. Denna ökande effektivitetstrend tyder på att antalet sessioner kunde ha varit otillräckligt och att en längre sessionsperiod också kunde ha ökat effektiviteten avsevärt. | Till exempel Bernárdez et al. REF genomförde ett experiment där man jämförde grupper av studenter som utför en mindfulnessövning med en kontrollgrupp som övar offentligt tal, och den förra var effektivare när det gällde att utveckla konceptuella modeller. | 16,189,344 | A controlled experiment to evaluate the effects of mindfulness in software engineering | {'venue': "ESEM '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,916 |
Helspråkig dokumentsammanfattning är en uppgift att producera en sammanfattning på ett språk för ett dokument som anges på ett annat språk. Befintliga metoder använder helt enkelt maskinöversättning för dokumentöversättning eller sammanfattning översättning. Dagens maskinöversättningstjänster är dock långt ifrån tillfredsställande, vilket resulterar i att kvaliteten på den flerspråkiga sammanfattningen vanligtvis är mycket dålig, både i läsbarhet och innehåll. I detta dokument föreslår vi att man tar hänsyn till översättningskvaliteten på varje mening i den engelsk-till-kinesiska sammanfattningsprocessen. För det första förutsägs översättningskvaliteten för varje engelsk mening i dokumentets uppsättning med SVM:s regressionsmetod, och sedan inkorporeras kvalitetspoängen för varje mening i sammanfattningsprocessen. Slutligen, de engelska meningarna med hög översättningskvalitet och hög informativhet väljs ut och översätts till den kinesiska sammanfattningen. Experimentella resultat visar att det föreslagna tillvägagångssättet är effektivt och användbart. | I REF, varje mening i källdokumentet rankas enligt båda poäng, sammanfattningen extraheras och sedan de valda meningar översatta till målspråket. | 11,116,896 | Cross-Language Document Summarization Based on Machine Translation Quality Prediction | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,917 |
I denna rapport presenteras en undersökning om detektion av hatpropaganda. Med tanke på det ständigt växande innehållet i sociala medier ökar också mängden hatpropaganda på nätet. På grund av den massiva skalan av webben, metoder som automatiskt detekterar hattal krävs. Vår undersökning beskriver nyckelområden som har utforskats för att automatiskt känna igen dessa typer av uttalanden med hjälp av naturligt språk bearbetning. Vi diskuterar också gränserna för dessa strategier. | REF genomför en omfattande undersökning om hatpropaganda. | 9,626,793 | A Survey on Hate Speech Detection using Natural Language Processing | {'venue': 'SocialNLP@EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,918 |
Motiverade av visionsbaserade förstärkande inlärningsproblem (RL), särskilt Atari spel från den senaste referensen Aracade Learning Environment (ALE), anser vi problem med spatio-temporala förutsägelser där framtida (bild-)ramar är beroende av kontrollvariabler eller åtgärder samt tidigare ramar. Även om de inte består av naturliga scener, ramar i Atari spel är högdimensionella i storlek, kan innebära tiotals objekt med ett eller flera objekt som kontrolleras av åtgärder direkt och många andra objekt påverkas indirekt, kan innebära inträde och avgång av objekt, och kan innebära djup partiell observerbarhet. Vi föreslår och utvärderar två djupa neurala nätverk arkitekturer som består av kodning, åtgärdsvillkor omvandling, och avkodning lager baserade på konvolutionella neurala nätverk och återkommande neurala nätverk. Experimentella resultat visar att de föreslagna arkitekturerna kan generera visuell-realistiska ramar som också är användbara för kontroll över cirka 100-stegs action-villkorliga framtider i vissa spel. Såvitt vi vet är denna uppsats den första att göra och utvärdera långsiktiga förutsägelser på högdimensionell video betingad av styringångar. ArXiv:1507.08750v1 [cs. Försäkringstekniska avsättningar beräknade som helhet – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet netto (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) – Bästa skattning och försäkringstekniska avsättningar beräknade som helhet (efter återförsäkring/specialföretag) | Med fokus på spatio-temporala förutsägelser problem, REF införa en neural nätverk arkitektur för åtgärd villkorlig video förutsägelse. | 3,147,510 | Action-Conditional Video Prediction using Deep Networks in Atari Games | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,919 |
Detta papper introducerar Adaptive Computation Time (ACT), en algoritm som tillåter återkommande neurala nätverk för att lära sig hur många beräkningssteg att ta mellan att ta emot en ingång och avger en utgång. ACT kräver minimala ändringar i nätverksarkitekturen, är deterministisk och differentierad, och lägger inte till något buller i parametergradienterna. Experimentella resultat ges för fyra syntetiska problem: bestämma paritet binära vektorer, tillämpa binär logik operationer, lägga till heltal, och sortering reella tal. Sammantaget förbättras prestandan dramatiskt genom användning av ACT, som med framgång anpassar antalet beräkningssteg till problemets krav. Vi presenterar även resultat från språkmodellering på teckennivå på Hutter-priset Wikipedia-datauppsättningen. I detta fall ger ACT inte stora resultatvinster; men det ger en spännande inblick i datastrukturen, med mer beräkning som är allokerad till svårare prediktiva övergångar, såsom mellanslag mellan ord och meningar. Detta tyder på att ACT eller andra adaptiva beräkningsmetoder skulle kunna ge en generisk metod för att fastställa segmentgränser i sekvensdata. | I REF införs adaptiv beräkningstid (ACT) för återkommande nätverk. | 8,224,916 | Adaptive Computation Time for Recurrent Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,920 |
I detta dokument presenteras vårt förhållningssätt till semantisk relativitet och textförutsättningar som organiseras som uppgift 1 i SemEval 2014. Vi tar specifikt upp två frågor: 1) Kan vi lösa dessa två deluppgifter tillsammans? (2) Är de funktioner som föreslås för uppgiften textförseelse fortfarande effektiva för semantisk släktskapsuppgift? För att ta itu med dem tog vi fram sju typer av funktioner, bland annat textskillnadsåtgärder som föreslogs i indiciment subtask, samt gemensamma textliknande åtgärder som användes i båda deluppgifterna. Sedan utnyttjade vi samma funktion inställd för att lösa de båda deluppgifterna genom att betrakta dem som en regression och en klassificering uppgift respektive och utförde en studie av påverkan av olika funktioner. Vi uppnådde den första och den andra rangen för relations- respektive inbegripenhetsuppgift. | Det översta systemet REF i uppgift 1 i SemEval 2014 har använt sju typer av funktioner, inklusive textskillnader, gemensamma textliknande åtgärder etc. | 11,252,815 | ECNU: One Stone Two Birds: Ensemble of Heterogenous Measures for Semantic Relatedness and Textual Entailment | {'venue': 'SemEval@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,921 |
Datormolnet Infrastructure-as-a-Service (IaaS) får stort intresse för industrin och den akademiska världen som en alternativ plattform för att driva vetenskapliga tillämpningar. Med tanke på den dynamiska karaktären hos IaaS-moln och den långa drifttiden och resursutnyttjandet av sådana tillämpningar, blir en effektiv kontrollpunktsåterställningsmekanism av största vikt i detta sammanhang. I detta dokument föreslås en lösning på den ovannämnda utmaningen som syftar till att minimera lagringsutrymmet och prestanda omkostnader checkpoint-restart. Vi introducerar en strategi som utnyttjar virtuella maskin (VM) disk-image multi-snapshotting och multi-deployment inuti checkpoint-restart protokoll körs på gästnivå för att effektivt fånga och potentiellt rulla tillbaka det fullständiga tillståndet i programmet, inklusive ändringar filsystem. Experiment på G5K-testbädden visar på betydande förbättringar för MPI-tillämpningar jämfört med befintliga tillvägagångssätt, både för fallet när anpassad kontroll är tillgänglig på applikationsnivå och fallet när det behöver hanteras på processnivå. | BlobCR REF strävar efter att eiciently fånga och rulla tillbaka tillstånd av scientiic hpc applikationer i offentliga moln. | 5,655,560 | BlobCR: efficient checkpoint-restart for HPC applications on IaaS clouds using virtual disk image snapshots | {'venue': '2011 International Conference for High Performance Computing, Networking, Storage and Analysis (SC)', 'journal': '2011 International Conference for High Performance Computing, Networking, Storage and Analysis (SC)', 'mag_field_of_study': ['Computer Science']} | 3,922 |
Vi är intresserade av snabb beräkning av det exakta värdet av integraler av polynom funktioner över konvex polyhedra. Vi presenterar speed ups och förlängningar av algoritmerna som presenterats i tidigare arbete av några av författarna. Vi presenterar en ny mjukvaruimplementering och tillhandahåller benchmarkingberäkningar. Beräkningen av integraler av polynom över polyhedral regioner har många tillämpningar; här visar vi våra algoritmiska verktyg lösa en utmaning från kombinatoriska röstningsteori. | LattE är ett verktyg som utför exakt integration av polynom funktioner över polytoper REF. | 6,247,343 | Software for exact integration of polynomials over polyhedra | {'venue': 'Comput. Geom., 46, 232-252', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,923 |
Abstract-Idag, bärbara internet-av-saker (WIoT) enheter ständigt översvämma molnet datacenter i en enorm takt. Detta ökar efterfrågan på en kantinfrastruktur för databehandling, intelligens och lagring nära användarna. Det framväxande paradigmet för dimdata skulle kunna spela en viktig roll för att göra wIoT mer effektivt och överkomligt. Fog computing är känt som molnet på marken. Detta papper presenterar en end-to-end arkitektur som utför datakonditionering och intelligent filtrering för att generera smart analys från bärbara data. I wIoT, bärbara sensor enheter tjänar på ena änden medan molnet backend erbjuder tjänster i den andra änden. Vi utvecklade en prototyp av smart dim gateway (ett mellanlager) med Intel Edison och Raspberry Pi. Vi diskuterade den smarta dimportens roll när det gäller att iscensätta processen för datakonditionering, intelligent filtrering, smart analys och selektiv överföring till molnet för långtidslagring och övervakning av temporal variabilitet. Vi jämförde prestandan hos utvecklade prototyper på verkliga data från smarta e-textile handskar. Resultaten visade hur användbar och möjlig den föreslagna arkitekturen är för att omvandla verkliga data till användbara analyser samtidigt som man använder sig av kunskapsbaserade modeller. På så sätt ökar den smarta dimporten den end-to-end interaktionen mellan bärbara (sensorenheter) och molnet. | Nicholas och Al. REF föreslog en Smart Fog Gateway (SFG)-modell för endto-end-analys i bärbara IoT-enheter och visade SFG:s roll när det gäller att iscensätta processen för datakonditionering, intelligent filtrering, smart analys och selektiv överföring till molnet för långtidslagring och övervakning av tidsvariationer. | 56,359 | Fog-Assisted wIoT: A Smart Fog Gateway for End-to-End Analytics in Wearable Internet of Things | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,924 |
När man söker i stora samlingar av hypertextdokument är det ofta möjligt att det finns för många resultat tillgängliga för tvetydiga frågor. Frågeförfining är en interaktiv process av frågemodifiering som kan användas för att begränsa omfattningen av sökresultat. Vi föreslår en ny metod för att automatiskt generera förbättringar eller relaterade termer till frågor av gruvankare text för en stor hypertext dokumentsamling. Vi visar att användningen av ankartext som grund för frågeförfining ger högkvalitativa förfiningsförslag som är betydligt bättre i termer av upplevd användbarhet jämfört med förfiningar som härleds med hjälp av dokumentets innehåll. Dessutom föreslår vår studie att ankartextförfiningar också kan användas för att förstärka traditionella frågeförfiningsalgoritmer baserade på frågeloggar, eftersom de vanligtvis skiljer sig åt i täckning och producerar olika förfiningar. Våra resultat bygger på experiment på en ankartextsamling av ett stort företags intranät. | I en personaliseringssökning baserad på användargrupper föreslås användarprofileringsstrategier som PClick och PJoshaims en metod för att automatiskt generera förbättringar, eller relaterade termer till frågor, genom att bryta en ankartext för en stor samling hypertextdokument. | 16,543,675 | Mining anchor text for query refinement | {'venue': "WWW '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,925 |
homogena trådlösa noder med enhetliga överföringsområden. I detta dokument föreslår vi två lokaliserade topologistyralgoritmer för heterogena trådlösa multi-hop-nätverk med icke-uniforma överföringsområden: Riktat Relativt Grannskapsdiagram (DRNG) och Riktat lokalt Minimalt Spanning Tree (DLMST). I båda algoritmerna väljer varje nod en uppsättning neighhon som finns på den lokalt insamlade informationen. Vi bevisar att (1) topologierna som härleds under DRNG och DLMST bevarar nätverksanslutningen; (2) graden av någon nod i den resulterande topolo= av DLMST är jagad; medan ut graden av ncdes i topologin hy DRNG inte jagas; och (3) topologierna genererade hy DRNG och DLMST bevara nätverket hi-directionality. Energieffektivitet 111 och nätkapacitet är kanske två av de viktigaste frågorna i trådlösa ad hoc-nät och sensornätverk. Topologikontrollalgoritmer har föreslagits för att upprätthålla nätverksanslutning och samtidigt minska energiförbrukningen och förbättra nätkapaciteten. Nyckelidén till topologikontroll är det. istället för att sända med maximal effekt. noder i ett trådlöst multi-hop nätverk gemensamt bestämma sin överföringskraft och definiera nätverket topologi genom att bilda rätt grannrelation under vissa kriterier. Genom att tillåta trådlösa noder att använda tillräcklig överföringseffekt (som vanligtvis är mycket mindre än maximal Urnsmission effekt). topologi kontroll kan inte bara spara energi och förlänga nätverket Metime. men också förbättra den rumsliga återanvändningen (och därmed nätkapaciteten) [2] och mildra MAC-mediets innehåll 131. Flera topologiska conuolalgoritmer [3]– [10] har föreslagits för att skapa effekteffektiv nättopologi i trådlösa multi-hop-nätverk med begränsad rörlighet (en sammanfattning ges i avsnitt 111). Hur som helst. De flesta av dem antar homogena trådlösa noder med enhetliga överföringsområden (utom 141). Antagandet av homogena noder håller inte alltid i praktiken eftersom även anordningar av samma typ kan ha något annorlunda maximal överföringseffekt. Det finns också heterogena trådlösa nätverk där apparater har drama[e] olika kapab es. Till exempel. Kommunikationsnätet i Future Combat System som omfattar trådlösa enheter på soldater. Fordon och UAV. Som kommer att exemplifieras i avsnitt 111. de flesta befintliga algoritmer kan inte direkt tillämpas på heterogena trådlösa multi-hop-nätverk där överföringsområdet för varje-node kan vara annorlunda. Så vitt vi vet. Detta dokument är det tidigaste arbetet för att ta itu med problemet med konnektivitet och biilrectionalitet i de heterogena trådlösa nätverken. I detta dokument föreslår vi två lokaliserade topologistyralgoritmer för heterogena trådlösa multi-hop-nätverk med icke-uniforma överföringsområden: Riktat Relativt Grannskapsdiagram (DRNG) och Riktat lokalt Minimalt Spanning Tree (DLMST). I båda algoritmerna. topologin är konstruerad genom att ha varje nod bygga sin granne uppsättning och justera sin överföringskraft baserat på den lokalt insamlade informationen. Vi kan bevisa att (1) den topologi som härleds under både DRNG och DLMST bevarar nätverksanslutning. d.v.s. om den ursprungliga topologin som genereras genom att varje nod använder sin maximala överföringseffekt är starkt ansluten. Då de topologier som genereras av både DRNG och DLMST är också starkt connectcd; (2) ut graden av någon nod i topologin av DLMST begränsas. Medan ut graden av noder i topologi av DRNG kan vara fritt: och (3) topologin som genereras av DRNG och DLMST bevarar nätverket hi-directionality. d.v.s. om den ursprungliga topologin genom att låta varje nod använda sin maximala överföringseffekt är hi-directional. Då topologin som genereras av antingen DRNG eller DLMST är också hidirective efter några enkla operationer. Simuleringsresultat indikerar att jämfört med andra kända topologistyralgoritmer som kan tillämpas på heterogena nätverk. DRNG och DLMST har mindre genomsnittlig nodgrad (både logisk och fysisk) och mindre genomsnittlig länklängd. Det förra minskar MAC-nivåstriden. medan den senare innebär en liten överföringskraft som behövs för att upprätthålla konnektiviteten. Resten av tidningen är organiserad enligt följande. I Avsnitt II_ ger vi nätverksmodellen. I Avsnitt 111. sammanfattar vi tidigare arbete med topologikontroll. och ge exempel för att visa varför befintliga algoritmer inte kan tillämpas direkt på heterogena nätverk. Följer det. Vi presenterar både DRNG- och DLMST-algoritmerna i sektion IV. och bevisa flera av sina användbara egenskaper i avsnitt V. Slutligen. vi utvärderar de föreslagna algoritmernas prestanda i avsnitt VI. och avsluta dokumentet i avsnitt VII. | Algoritmerna DRNG och DLMST föreslogs i REF, och de är baserade på närhetskurva teorin. | 9,901,640 | Topology control in heterogeneous wireless networks: problems and solutions | {'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']} | 3,926 |
Vi föreslår en enhetlig ram för gränsfyndighet, där en Bayesiansk formulering, baserad på förkunskaper och egginformation av indatabilden (sannolikhet), används. Förkunskaperna i vårt ramverk bygger på huvudkomponentanalys av fyra olika covariansmatriser som motsvarar oberoende, smidighet, statistisk form respektive kombinerade modeller. Ormar, modala analyser, Fourier-deskriptorer och punktfördelningsmodeller kan härledas från eller kopplas till våra metoder för olika tidigare modeller. När det verkliga träningssetet inte innehåller tillräckligt med variabilitet för att uttrycka alla deformationer, använder en blandad kovariansmatris en kombination av jämnhet och statistisk variation. Den anpassar sig gradvis till att använda mer statistiska variationsmetoder eftersom större datamängder finns tillgängliga. | Därför använder Wang och Staib REF tidigare modeller baserade på huvudkomponentanalys av ytterligare covariansmatriser. | 7,238,782 | Boundary Finding with Prior Shape and Smoothness Models | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,927 |
Vi presenterar en ny corpus, PersonaBank, bestående av 108 personliga berättelser från webbloggar som har kommenterats med deras STORA INTENTION GRAPHS, en djup representation av fabula av en berättelse. Vi beskriver berättelsernas teman och grunden för STORA INTENTIONEN GRAPH-representationen, samt processen att kommentera berättelserna för att producera STORA INTENTIONEN GRAPH och utmaningarna med att anpassa verktyget till denna nya personliga berättandedomän Vi diskuterar också hur corpus kan användas i tillämpningar som berättar historien med hjälp av olika stilar av berättande, co-tellings, eller som en innehållsplanerare. | REF kommenterade 108 personliga berättelser med hjälp av SIG formalism. | 18,071,992 | PersonaBank: A Corpus of Personal Narratives and Their Story Intention Graphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,928 |
Abstrakt. Detta dokument utvärderar toppmoderna kontaktmodeller för att förutsäga de rörelser och krafter som är involverade i enkla in-hand robotiska manipulationer. I synnerhet fokuserar den på tre primitiva åtgärder-linjär glidning, svängning, och rullande-som involverar kontakter mellan en gripare, ett stelt objekt, och deras omgivning. Utvärderingen görs genom tusentals kontrollerade experiment utformade för att fånga rörelsen av objekt och gripare, och alla kontaktkrafter och vridmoment vid 250Hz. Vi visar att en kontaktmodellering baserad på Coulombs friktionslag och maximal energiprincip är effektiv i resonemanget om interaktion till första ordningen, men begränsad för att göra korrekta förutsägelser. Vi tillskriver de stora begränsningarna 1) den icke-unika kraftupplösning som är inbyggd i grepp med flera hårda kontakter av komplexa geometrier, 2) omodellerad dynamik på grund av kontaktöverensstämmelse, och 3) omodellerade geometrier på grund av tillverkningsdefekter. | Vi visade att detaljerade dynamiska modeller med Coulomb friktion och maximal energiavledning princip gör att vi kan förutsäga rörelsen av objektet och krafter vid kontakter realistiskt REF. | 17,255,413 | Experimental Validation of Contact Dynamicsfor In-Hand Manipulation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 3,929 |
Kombinationen av globala och partiella funktioner har varit en viktig lösning för att förbättra diskriminativa prestationer i personåteridentifieringsuppgifter (Re-ID). Tidigare delbaserade metoder fokuserar främst på att lokalisera regioner med specifika fördefinierade semantik för att lära sig lokala representationer, vilket ökar inlärningssvårigheter men inte effektiva eller robusta för scenarier med stora variationer. I detta dokument föreslår vi en end-to-end-strategi för lärande som integrerar diskriminerande information med olika detaljrikedomar. Vi designar noggrant Multiple Granularity Network (MGN), en multi-branch djup nätverk arkitektur som består av en gren för globala funktioner representationer och två grenar för lokala funktioner representationer. Istället för att lära oss om semantiska regioner delar vi upp bilderna jämnt i flera ränder, och varierar antalet delar i olika lokala grenar för att få lokala funktionsrepresentationer med flera granulariteter. Omfattande experiment som genomförts på de vanliga utvärderingsdataseten inklusive Market-1501, DukeMTMC-reid och CUHK03 indikerar att vår metod på ett robust sätt uppnår toppmoderna prestationer och överträffar alla befintliga metoder med stor marginal. Till exempel, på Market-1501 dataset i ett enda frågeläge, får vi ett toppresultat av Rank-1/mAP=96,6%/94,2% med denna metod efter omplacering. | På senare tid har REF föreslagit ett branschövergripande nätverk för att kombinera globala och partiella funktioner med olika detaljrikedomar. | 4,591,954 | Learning Discriminative Features with Multiple Granularities for Person Re-Identification | {'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,930 |
Rättvisa för maskininlärning har fått stor uppmärksamhet på senare tid. Olika matematiska formuleringar av rättvisa har föreslagits, och det har visat sig att det är omöjligt att tillfredsställa dem alla samtidigt. Litteraturen har hittills hanterat dessa omöjliga resultat genom att kvantifiera avvägningarna mellan olika formuleringar av rättvisa. Vårt arbete har ett annat perspektiv på denna fråga. I stället för att kräva att alla begrepp om rättvisa ska finnas (delvis) samtidigt, frågar vi vilken av dem som är den lämpligaste med tanke på det samhällsområde inom vilket beslutsmodellen ska användas. Vi tar ett beskrivande tillvägagångssätt och har för avsikt att identifiera begreppet rättvisa som bäst fångar människors uppfattning om rättvisa. Vi utför adaptiva experiment för att identifiera det mest kompatibla begreppet rättvisa med varje deltagares val genom ett litet antal tester. Kanske förvånande tycker vi att den mest förenklade matematiska definitionen av rättvisenämnande demografisk paritet närmast stämmer överens med människors uppfattning om rättvisa i två olika tillämpningsscenarier. Denna slutsats förblir intakt även när vi uttryckligen berättar för deltagarna om de alternativa, mer komplicerade definitionerna av rättvisa, och vi minskar den kognitiva bördan av att utvärdera dessa begrepp för dem. Våra resultat har viktiga konsekvenser för Fair ML-litteraturen och diskursen om att formalisera algoritmisk rättvisa. | REF undersöker vilka av de befintliga matematiska formuleringarna av grupprättvisa som bäst fångar människors uppfattning om rättvisa i två olika beslutsscenarier. | 61,153,659 | Mathematical Notions vs. Human Perception of Fairness: A Descriptive Approach to Fairness for Machine Learning | {'venue': None, 'journal': 'Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining', 'mag_field_of_study': ['Computer Science']} | 3,931 |
Abstract-mest samordnade uppgifter utförs av team av mobila robotar, kräver tillförlitlig kommunikation mellan medlemmarna i laget. Därför krävs det att robotar navigerar i sin omgivning med sin kollektiva rörelse begränsad till formationer som garanterar kommunikationsnätets integritet. Att upprätthålla denna kommunikationsförmåga medför fysiska begränsningar på banor men kräver också bestämning av kommunikationsvariabler som rutter och överförda krafter. I det här dokumentet tar vi itu med detta problem med hjälp av en distribuerad hybridstrategi, där kontinuerliga rörelseregulatorer baserade på potentiella fält interagerar med diskret distribuerad optimering av kommunikationsvariabler för att resultera i ett muti-robotnätverk som säkerställer kommunikationens integritet. Vår definition av nätintegritet definieras som ett näts förmåga att stödja önskade kommunikationshastigheter. | Zavlanos m.fl. REF använder en distribuerad hybridmetod för att kontrollera det robotiska nätets rörlighet och samtidigt upprätthålla anslutning till önskad hastighet. | 9,279,605 | Distributed control of mobility & routing in networks of robots | {'venue': '2011 IEEE 12th International Workshop on Signal Processing Advances in Wireless Communications', 'journal': '2011 IEEE 12th International Workshop on Signal Processing Advances in Wireless Communications', 'mag_field_of_study': ['Computer Science']} | 3,932 |
Abstract Video bakgrund modellering är en viktig förbehandling steg i många videoanalyssystem. Huvudkomponentjakt (PCP), som för närvarande anses vara den senaste metoden för detta problem, har en hög beräkningskostnad, och bearbetar ett stort antal videoramar åt gången, vilket resulterar i hög minnesanvändning och begränsar tillämpligheten av denna metod för att strömma video. I detta dokument föreslår vi en ny helt inkrementell PCP algoritm för video bakgrund modellering. Det behandlar en ram i taget, få liknande resultat som standard batch PCP algoritmer, samtidigt som kunna anpassa sig till förändringar i bakgrunden. Det har en extremt låg minnesavtryck, och en beräknings komplexitet som möjliggör realtidsbearbetning. | Rodríguez REF föreslog en inkrementell PCP-algoritm som kan bearbeta en videoram åt gången, vilket ger liknande resultat som vanliga PCP-algoritmer med lågt minnesavtryck och processhastighet i realtid. | 207,175,766 | Incremental Principal Component Pursuit for Video Background Modeling | {'venue': 'Journal of Mathematical Imaging and Vision', 'journal': 'Journal of Mathematical Imaging and Vision', 'mag_field_of_study': ['Computer Science']} | 3,933 |
I detta dokument utvärderas de snedvridningar som orsakas av paketförlust under videoöverföringen med avseende på deras upplevda irritation. I detta avseende är inverkan av visuell hälsa på graden av irritation av särskilt intresse, eftersom regioner och objekt i en videoram vanligtvis inte är lika viktiga för betraktaren. För detta ändamål användes blickmönster från en uppgiftsfri eyetracking experiment för att identifiera framträdande regioner i ett antal videor. Packet förlust infördes sedan i bit ström såsom att motsvarande snedvridningar visas antingen i en betydande region eller i en icke-salient region. Sedan genomfördes ett subjektivt experiment där mänskliga iakttagare ansåg att förvrängningarna i videorna var förargliga. Resultaten visar en stark tendens att snedvridningar i en betydande region verkligen uppfattas som mycket mer irriterande än snedvridningar i den icke-salienta regionen. Det förvrängda bildinnehållets betydelse visade sig också ha en större inverkan på den upplevda irritationen jämfört med snedvridningens varaktighet. Resultaten av detta arbete anses vara till stor nytta för att förbättra förutsägelsen prestanda videokvalitetsmått i samband med överföringsfel. | Ett subjektivt experiment genomfördes i REF för att undersöka inverkan av visuell hälsa på irritation av paket förlust distorsion. | 48,359,900 | Linking distortion perception and visual saliency in H.264/AVC coded video containing packet loss | {'venue': 'Visual Communications and Image Processing', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']} | 3,934 |
Personlig rekommendation av intressanta punkter (POI) spelar en viktig roll för att tillfredsställa användare på plats-baserade sociala nätverk (LBSN). I den här artikeln föreslår vi en probabilistisk modell för att hitta kartläggningen mellan användarannoterade taggar och platsers smak sökord. Dessutom inför vi en datauppsättning om platsers kontextuella lämplighet och visar dess användbarhet när det gäller att förutsäga den kontextuella relevansen av platser. Vi undersöker fyra tillvägagångssätt för att använda vår föreslagna kartläggning för att ta itu med data gleshetsproblem: en modell för att minska dimensionaliteten i plats smak sökord och tre modeller för att förutsäga användartaggar för en ny plats. Dessutom presenterar vi olika poäng som beräknats från flera LBSNs och visar hur vi införlivar ny information från kartläggningen i en POI rekommendation strategi. Sedan är de beräknade poängen integrerade med hjälp av inlärning för att rangordna tekniker. Experimenten på två TREC dataset visar effektiviteten i vår strategi, slå state-of-the-art metoder. Mohammad Aliannejadi och Fabio Crestani. År 2018............................................................................................................. Personlig Context-Aware Point of Interest Rekommendation. | Dessutom använde Aliannejadi och Crestani REF en probabilistisk modell för att konstruera kartläggningen mellan användartaggar och plats smak nyckelord, vilket gjorde det möjligt att utnyttja olika riktningar för att ta itu med data gleshet problem för POI rekommendation. | 49,274,328 | Personalized Context-Aware Point of Interest Recommendation | {'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,935 |
Vi behandlar textsammanfattningsproblemet som att maximera en submodulär funktion under en budgetbegränsning. Vi visar, både teoretiskt och empiriskt, en modifierad girig algoritm kan effektivt lösa det budgeterade submodulära maximeringsproblemet nästan optimalt, och vi härleder nya approximationsbegränsningar i att göra det. Experiment på DUC'04 uppgift visar att vår strategi är överlägsen den bästa metoden från DUC'04 utvärdering på ROUGE-1 poäng. | REF behandlade summeringuppgiften som ett maximeringsproblem för submodulära funktioner. | 1,803,710 | Multi-document Summarization via Budgeted Maximization of Submodular Functions | {'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,936 |
Vi föreslår en ny ram för beskärning av konvolutionella kärnor i neurala nätverk för att möjliggöra effektiv inferens, med fokus på överföringslärande där stora och potentiellt otympliga förtränade nätverk är anpassade till specialiserade uppgifter. Vi lämnar giriga kriterier-baserad beskärning med finjustering genom backpropagation-en beräkningseffektiv procedur som upprätthåller god generalisering i det beskurna nätverket. Vi föreslår ett nytt kriterium baserat på en effektiv första-order Taylor expansion för att approximera den absoluta förändringen i utbildningskostnader som orsakas av beskärning en nätverkskomponent. Efter normalisering, det föreslagna kriteriet skalar på lämpligt sätt över alla skikt av en djup CNN, vilket eliminerar behovet av per-lager känslighetsanalys. Det föreslagna kriteriet visar på överlägsen prestanda jämfört med andra kriterier, såsom normen för kärnvikter eller genomsnittlig funktionskartaktivering. | Molchanov m.fl. REF antar en första-order Taylor expansion för att approximera förändringen till förlust funktion som induceras genom beskärning varje filter. | 16,167,970 | Pruning Convolutional Neural Networks for Resource Efficient Transfer Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,937 |
Generativa kontradiktoriska nätverk (GAN) samtidigt som de är mycket mångsidiga i realistisk bildsyntes, är fortfarande känsliga för indatadistributionen. Med tanke på en uppsättning data som har en obalans i distributionen, nätverken är mottagliga för saknade lägen och inte fånga datadistributionen. Även om olika metoder har försökt förbättra utbildningen av GAN, har dessa inte tagit itu med utmaningarna med att täcka hela datadistributionen. Specifikt, en generator är inte straffas för att missa ett läge. Vi visar att dessa därför fortfarande är mottagliga för att inte fånga den fullständiga datadistributionen. I detta dokument föreslår vi ett enkelt tillvägagångssätt som kombinerar ett kodningsbaserat mål med nya förlustfunktioner för generator och discriminator som förbättrar lösningen när det gäller att fånga saknade lägen. Vi bekräftar att den föreslagna metoden resulterar i betydande förbättringar genom sin detaljerade analys av leksaker och verkliga dataset. De kvantitativa och kvalitativa resultaten visar att den föreslagna metoden förbättrar lösningen på problemet med saknade transportsätt och förbättrar utbildningen av GAN. | Nyligen visade dataförstärkning med Generativa Adversarial Networks (Gans) lovande resultat REF. | 3,647,274 | No Modes left behind: Capturing the data distribution effectively using GANs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,938 |
Kommando i robotteleoperativ system kan göras på flera sätt, inklusive användning av teckenspråk. I detta papper, användningen av centroid avstånd Fourier deskriptorer som handform deskriptor i teckenspråk igenkänning från visuellt fångad hand gest beaktas. Teckenspråket antar den amerikanska teckenspråkfingret stavning. Endast statiska gester på teckenspråket används. För att få handbilder används djupbildare i denna forskning. Handbilden extraheras från djupbilden genom att tröskelfunktionen används. Centroid avstånd signatur är konstruerad från de segmenterade hand konturer som en form signatur. Fyrigare omvandling av Centroid avstånd signaturen resulterar i fyra mer deskriptorer av handformen. De fyra mer deskriptorerna av handgesten jämförs sedan med gestlexikonet för att utföra gestigenkänning. Prestandan hos gestigenkänningen med hjälp av olika avståndsmått som klassificeringsvärden undersöks. Testresultaten visar att användningen av 15 Fourier-deskriptorer och Manhattan-avståndsbaserad klassificering uppnår de bästa igenkänningsfrekvenserna på 95% med liten beräkningslatens ca 6.0573 ms. Erkännandet fel uppstår på grund av likheten mellan Fourier deskriptorer från någon gest. | Rayi et al REF använde centroidavståndet Fourier deskriptorer som handform deskriptorer i teckenspråksigenkänning. | 2,221,203 | Sign Language Recognition in Robot Teleoperation using Centroid Distance Fourier Descriptors | {'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']} | 3,939 |
Abstract-Recently, innehåll-medvetet-aktiverad distribuerad caching som bygger på lokala småcelliga basstationer (SBS), nämligen småcellig caching, har studerats intensivt för att minska överföringslatens samt minska trafikbelastningen över backhaul kanaler. I detta dokument anser vi att ett kommersialiserat cachesystem med små celler består av en nätverksleverantör (NSP), flera innehållsleverantörer (CPs) och flera mobila användare (MUs). NSP hyr ut sina resurser till CP som en nätanläggning med monopol som ansvarar för SBS för vinst. Samtidigt är CPs avsedda att hyra SBS för att tillhandahålla bättre nedladdningstjänster till MUs. Vi fokuserar på att lösa problemet med vinstmaximering för NSP inom ramen för kontraktsteorin. För att vara specifika formulerar vi först NSP:s och CP:s allmännyttiga funktioner genom att modellera MU:s och SBS:s som två oberoende Poisson point-processer. Sedan utvecklar vi det optimala kontraktsproblemet för ett asymmetriskt informationsscenario, där NSP bara känner till distributionen av CPs 'T. Liu är med School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, Kina, och även med School of Communication Engineering, Nanjing Institute of Technology, Nanjing 211167, Kina (e-post: [email protected]). J. Li är med School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, Kina, och även med National Mobile Communications Research Laboratory, Southeast University, Nanjing 210009, Kina (e-post: [email protected]). F. Shu är med School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, Kina (e-post: [email protected]). M. popularitet bland MUs. Dessutom får vi de nödvändiga och tillräckliga villkoren för genomförbara kontrakt. Slutligen föreslås optimala kontraktslösningar med olika CPs popularitet parameter γ. Numeriska resultat ges för att visa den optimala kvaliteten och det optimala priset för varje CP. Dessutom anser vi att den föreslagna avtalsbaserade mekanismen är överlägsen riktmärkena när det gäller att maximera NSP:s vinst. | Senare, Liu et al. Utökade modellen till ett asymmetriskt informationsscenario, där SP bara kände till distributionen av CPs popularitet bland användare REF. | 206,828,623 | Design of Contract-Based Trading Mechanism for a Small-Cell Caching System | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,940 |
De senaste åren har man sett en bred tillämpning av hashing för storskalig bildsökning. De flesta befintliga hashingmetoder bygger dock på handgjorda funktioner som kanske inte är optimalt kompatibla med hashförfarandet. Nyligen, djupa hashing metoder har föreslagits för att utföra samtidig funktionsinlärning och hash-kod lärande med djupa neurala nätverk, som har visat bättre prestanda än traditionella hashing metoder med handgjorda funktioner. De flesta av dessa djup hashing metoder övervakas vars övervakade information ges med tripletter etiketter. För ett annat vanligt tillämpningsscenario med pairwise-etiketter har det inte funnits metoder för samtidig funktionsinlärning och hash-kodinlärning. I detta dokument föreslår vi en ny djup hashmetod, kallad djup pairwise-övervakad hashing (DPSH), för att utföra simultant funktionsinlärning och hashkodinlärning för applikationer med pairwise-etiketter. Experiment på verkliga dataset visar att vår DPSH-metod kan överträffa andra metoder för att uppnå den senaste prestandan i applikationer för bildsökning. | DPSH REF är en djup hashing metod för att utföra samtidig funktionsinlärning och hash kodinlärning med pairwise etiketter. | 8,383,593 | Feature Learning based Deep Supervised Hashing with Pairwise Labels | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,941 |
Abstract-Pneumonia är en av de viktigaste orsakerna till barnadödlighet. Tyvärr finns det i utvecklingsländerna brist på infrastruktur och medicinska experter på landsbygden för att kunna tillhandahålla de nödvändiga diagnoserna på lämpligt sätt. Lung ultraljud ekografi har visat sig vara ett viktigt verktyg för att upptäcka lungan konsolideras som bevis på lunginflammation. Detta papper presenterar en metod för automatisk diagnostik av lunginflammation med ultraljud av lungorna. Den metod som presenteras här är baserad på analys av mönster som finns i rektangulära segment från ultraljud digitala bilder. Särskilda egenskaper från de karakteristiska vektorerna erhölls och klassificerades med standard neurala nätverk. En utbildnings- och testuppsättning med positiva och negativa vektorer sammanställdes. Vektorer som erhållits från en enda patient ingick endast i testet eller i träningssetet, men aldrig i båda. Vårt tillvägagångssätt kunde korrekt klassificera vektorer med tecken på lunginflammation, med 91,5% känslighet och 100% specificitet. | I REF I erhölls en känslighet på 91,5 % och specificitet på 100 %, men extraherades från en enda patient och ingick endast i testet eller i träningssetet. | 21,238,669 | Automatic detection of pneumonia analyzing ultrasound digital images | {'venue': '2016 IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI)', 'journal': '2016 IEEE 36th Central American and Panama Convention (CONCAPAN XXXVI)', 'mag_field_of_study': ['Medicine']} | 3,942 |
Abstrakt. Funktionskrav skrivs ofta med användningsfall formaterade av textmallar. Detta textbaserade tillvägagångssätt har fördelen att vara lätt att anta, men kraven kan då knappast behandlas för ytterligare ändamål som testgenerering. I detta dokument föreslår vi att automatiskt generera genom en modellomvandling ett aktivitetsschema som modellerar användningsfallsscenariot. Ett sådant aktivitetsschema låter oss gissa i en glimt det globala beteendet i ett användningsfall, och kan lätt bearbetas. Omvandlingen definieras med hjälp av QVT-relationsspråket och illustreras i en fallstudie med hjälp av ett stödverktyg. | Slutligen föreslår författarna i REF att automatiskt, genom modellomvandlingar, skapa en aktivitetsmodell som representerar användningsscenariot från en textmall. | 36,067,554 | Visualization of Use Cases through Automatically Generated Activity Diagrams | {'venue': 'MoDELS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,943 |
Abstrakt. Programvaruarkitekturer (SA) representerar en kritisk designnivå för programvarusystem. Arkitekturval måste analyseras och verifieras för att uppnå en bättre programvarukvalitet samtidigt som tiden och kostnaden för produktionen minskas. Modellkontroll är en av de mest lovande verifieringsmetoderna, men dess användning för mycket stora system är inte alltid möjlig på grund av problemet med statsexplosion. I detta dokument föreslår vi ett tillvägagångssätt som skär och abstracts SA av ett system för att minska modellens komplexitet utan att äventyra verifieringens giltighet. Detta tillvägagångssätt utnyttjar särdragen hos SA-modellen och strukturen på den egendom som är av intresse. Det tillämpas på Selex Communications industriella telekommunikationssystem. | Författarna i REF har föreslagit en arkitektonisk skärning och abstraktionsmetod för att minska modellens komplexitet. | 17,311,125 | Reducing software architecture models complexity: a slicing and abstraction approach | {'venue': 'FORTE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,944 |
Åtgärdssegmentering som en milstolpe mot att bygga automatiska system för att förstå otrimmade videor har fått stor uppmärksamhet under de senaste åren. Det är typiskt att modelleras som en sekvens märkning problem men innehåller inneboende och tillräckliga skillnader än text tolkning eller talbehandling. I detta papper introducerar vi en ny hybrid temporal convolutional och återkommande nätverk (TricorNet), som har en kodare-dekoder arkitektur: kodaren består av en hierarki av temporal convolutional kärnor som fångar lokala rörelseförändringar av olika handlingar; dekoder är en hierarki av återkommande neurala nätverk som kan lära sig och memorera långsiktiga åtgärder beroenden efter kodning stadiet. Vår modell är enkel men extremt effektiv när det gäller videosekvensmärkning. De experimentella resultaten på tre datauppsättningar för offentliga aktionssegment har visat att den föreslagna modellen uppnår överlägsen prestanda jämfört med den senaste tekniken. | Ding m.fl. REF introducerar ytterligare ett hybridnät för tidskonvolution och återkommande nätverk som också lär sig att beställa åtgärder, men som lider av höga beräkningskostnader. | 22,939,330 | TricorNet: A Hybrid Temporal Convolutional and Recurrent Network for Video Action Segmentation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,945 |
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är. | CycleGAN utför en oparerad domänöverföring genom att lägga till en cykelkonsistens förlust till utbildningsmål REF. | 206,770,979 | Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 3,946 |
De dominerande sekvenstransduktionsmodellerna är baserade på komplexa återkommande eller konvolutionella neurala nätverk som inkluderar en kodare och en dekoder. De bäst presterande modellerna kopplar också samman kodaren och dekodern genom en uppmärksamhetsmekanism. Vi föreslår en ny enkel nätverksarkitektur, Transformer, baserad enbart på uppmärksamhetsmekanismer, dispensering med upprepningar och konvolutioner helt och hållet. Experiment på två maskinöversättningsuppgifter visar att dessa modeller är överlägsna i kvalitet samtidigt som de är mer parallelliserbara och kräver betydligt mindre tid att träna. Vår modell uppnår 28,4 BLEU på WMT 2014 engelska till tyska översättning uppgift, förbättra över de befintliga bästa resultaten, inklusive ensembler, med över 2 BLEU. På WMT 2014 engelska-till-franska översättning uppgift, vår modell etablerar en ny enda modell state-of-the-art BLEU poäng på 41.0 efter utbildning i 3,5 dagar på åtta GPUs, en liten bråkdel av utbildningskostnaderna för de bästa modellerna från litteraturen. Vi visar att Transformer generaliserar väl till andra uppgifter genom att tillämpa det framgångsrikt till engelska valkrets tolkar både med stora och begränsade utbildningsdata. | Vaswani m.fl. I REF föreslogs en "Transformer" för maskinöversättning, som enbart bygger på uppmärksamhetsmekanismer. | 13,756,489 | Attention Is All You Need | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,947 |
Merparten av arbetet i analysen av kryptografiska system är koncentrerat till abstrakta kontradiktoriska modeller som inte fångar sidokanalsattacker. Sådana attacker utnyttjar olika former av oavsiktliga informationsläckage, vilket är en naturlig del av nästan alla fysiska genomföranden. Inspirerad av de senaste sidokanalattackerna, särskilt "kallstartsattackerna" från Halderman et al. (USENIX Security '08), Akavia, Goldwasser och Vaikuntanathan (TCC '09) formaliserade en realistisk ram för att modellera säkerheten för krypteringssystem mot en bred klass av sidokanal attacker där adversarially valda funktioner av den hemliga nyckeln läcker. När det gäller kryptering med öppen nyckel, Akavia et al. visade att Regevs latticebaserade system (STOC '05) är motståndskraftigt mot eventuella läckage av L/polylog(L) bitar, där L är längden på den hemliga nyckeln. I detta dokument ser vi över det ovan nämnda ramverket och våra viktigaste resultat är följande: • Vi presenterar en allmän konstruktion av ett offentligt krypteringssystem som är motståndskraftigt mot nyckelläckage från alla hashsäkra system. Konstruktionen är inte beroende av ytterligare beräkningsantaganden, och det resulterande systemet är lika effektivt som det underliggande hashproof-systemet. Befintliga konstruktioner av hashsäkra system innebär att vår konstruktion kan baseras på en mängd olika tal-teoretiska antaganden, inklusive den beslutande Diffie-Hellman antagande (och dess gradvis svagare d-Linear varianter), quadratic residuosity antagande, och Pailliers sammansatta residuosity antagande. • Vi konstruerar ett nytt hashproof system baserat på beslut Diffie-Hellman antagande (och dess d-Linear varianter), och visar att det resulterande systemet är motståndskraftig mot eventuella läckage av L(1 − o(1)) bitar. Dessutom bevisar vi att Boneh et al. (CRYPTO '08), konstruerad för att vara ett "cirkulärt säkert" krypteringssystem, passar vårt allmänna tillvägagångssätt och är också motståndskraftig mot eventuella läckage av L(1 - o(1)) bitar. • Vi utsträcker ramen för nyckelläckage till att fastställa valda-chiffertext attacker. På den teoretiska sidan, vi bevisar att Naor-Yung paradigm är tillämplig i denna miljö också, och få som en corollary krypteringssystem som är CCA2-säkra med eventuella läckage av L(1 - o(1)) bitar. På den praktiska sidan bevisar vi att varianter av CramerShoup cryptosystem (längs linjen av vår generiska konstruktion) är CCA1-säkra med eventuella läckage av L/4 bitar, och CCA2-säkra med eventuella läckage av L/6 bitar. En preliminär version av detta verk publicerades i Forwards in Cryptology -CRYPTO '09, sidorna 18-35, 2009. | Mer nyligen föreslog Naor et al Ref en allmän konstruktion för en öppen kryptering som är motståndskraftig mot nyckelläckage. | 2,826,332 | Public-key cryptosystems resilient to key leakage | {'venue': 'In Advances in Cryptology — CRYPTO 2009, volume 5677 of Springer LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,948 |
I detta dokument presenterar vi det system vi har utvecklat för SemEval-2014 Task 4 tillägnad Aspect-Based Sentiment Analysis. Systemet bygger på en robust parser som ger information för att mata olika klassificeringar med språkliga funktioner som är avsedda för aspektkategorier och aspektkategorier polaritetsklassificering. Vi presenterar främst det arbete som har gjorts på restaurangdomän 1 för de fyra deluppgifterna, aspekten term och kategori upptäckt och aspekten term och kategori polaritet. | Det system som föreslås i REF är baserat på en robust tolk som tillhandahåller information för att mata klassificerare för Support Vector Machine (SVM) med språkliga funktioner som är avsedda för aspektkategorier och aspektkategorier polaritetsklassificering. | 11,051,461 | XRCE: Hybrid Classification for Aspect-based Sentiment Analysis | {'venue': 'SemEval@COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,949 |
Abstract-In the Internet of Things (IoT) scenario, blockchain och, i allmänhet, Peer-to-Peer strategier skulle kunna spela en viktig roll i utvecklingen av decentraliserade och dataintensiva program som körs på miljarder enheter, bevara användarnas integritet. Vårt forskningsmål är att förstå om blockchain och Peer-to-Peer metoder kan användas för att främja en decentraliserad och privat-för-design IoT. Som ett första steg i vår forskningsprocess genomförde vi en Systematisk Litteraturöversikt om blockkedjan för att samla kunskap om den aktuella användningen av denna teknik och dokumentera dess nuvarande grad av integritet, anonymitet och anpassningsförmåga. Vi hittade 18 fall av blockchain i litteraturen. Fyra av dessa användningsfall är uttryckligen utformade för sakernas internet. Vi hittade också några användningsfall som är utformade för en privat-för-design datahantering. Vi hittade också flera frågor i integritet, anonymitet och anpassningsförmåga. När det gäller anonymitet fann vi att endast pseudonymitet garanteras i blockkedjan. När det gäller anpassningsförmåga och integritet upptäckte vi att blockkedjans integritet till stor del beror på den stora svårigheten med Proof-of-Work och på det stora antalet ärliga gruvarbetare, men samtidigt begränsar ett svårt Proof-of-Work anpassningsförmågan. Vi dokumenterade och kategoriserade den nuvarande användningen av blockchain, och gav några rekommendationer för framtida arbete för att ta itu med de ovan nämnda frågorna. | Conoscenti et al REF gav en systematisk litteraturöversikt om blockchains och IoT, där endast fyra användningsfall uttryckligen utformade för IoT. De övervägde kortfattat blockchain säkerhet och noterade att användarrelaterade integritetsfrågor kan uppstå, utan att verkligen gå mycket djupare. | 925,507 | Blockchain for the Internet of Things: A systematic literature review | {'venue': '2016 IEEE/ACS 13th International Conference of Computer Systems and Applications (AICCSA)', 'journal': '2016 IEEE/ACS 13th International Conference of Computer Systems and Applications (AICCSA)', 'mag_field_of_study': ['Computer Science']} | 3,950 |
I motsats till det allmänt studerade problemet med att känna igen en åtgärd som ges en komplett sekvens, syftar åtgärdsförväntning till att identifiera åtgärden från endast delvis tillgängliga videor. Som sådan är det därför avgörande för framgången för datorsiktstillämpningar som kräver att reagera så tidigt som möjligt, t.ex. autonom navigering. I detta dokument föreslår vi en ny åtgärdsförutsättningsmetod som uppnår hög förutsägelsenoggrannhet även i närvaro av en mycket liten procentandel av en videosekvens. I detta syfte utvecklar vi en flerstegs LSTM-arkitektur som utnyttjar kontextmedvetna och actionmedvetna funktioner, och introducerar en ny förlustfunktion som uppmuntrar modellen att förutsäga rätt klass så tidigt som möjligt. Våra experiment på standardriktmärkesdata visar fördelarna med vårt tillvägagångssätt; Vi överträffar de senaste handlingsförutsägelsemetoderna för tidig förutsägelse genom en relativ ökning av noggrannheten med 22,0 % på JHMDB-21, 14,0 % på UT-interaktion och 49,9 % på UCF-101. | På samma sätt föreslås i REF en ny förlustfunktion för förebyggande åtgärder som syftar till att uppmuntra till korrekta förutsägelser så tidigt som möjligt. | 2,666,813 | Encouraging LSTMs to Anticipate Actions Very Early | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 3,951 |
Abstract-Non-extractive fisk överflöd uppskattning med hjälp av visuell analys har dragit till sig ökad uppmärksamhet. Ostabil belysning, allestädes närvarande buller och låg bildhastighet video fånga i undervattensmiljön, dock gör konventionella spårningsmetoder opålitliga. I detta dokument presenterar vi ett multifunktionellt fiskspårningssystem för stereovideor med låga kontraster och låga bildhastigheter med användning av ett trålbaserat undervattenskamerasystem. En automatisk fisksegmenteringsalgoritm övervinner de lågkontrastproblemen genom att använda en histogram-backprojiceringsmetod på dubbla lokala spärrade bilder för att säkerställa en korrekt segmentering av fiskformsgränserna. Baserat på en tillförlitlig funktionsbaserad objektmatchningsmetod, föreslås en multi-mål spårningsalgoritm via en modifierad Viterbi dataförening för att övervinna den dåliga rörelsekontinuiteten och frekventa inträde / utgång av fiskmål under låg-frame-hastighet scenarier. Dessutom utför en beräkningseffektiv blockmatchningsmetod en framgångsrik stereomatchning, vilket möjliggör en automatisk fisk-kropps svanskompensation för att avsevärt minska segmenteringsfelet och möjliggör en noggrann fisklängdsmätning. Experimentella resultat visar att en effektiv och tillförlitlig spårningsprestanda för flera levande fiskar med undervattensstereokameror uppnås. Index Termer-fisk överflöd uppskattning, låg bildhastighet video, flera målspårning, stereo avbildning, undervattensvideo I. INLEDNING Uppskattning av ISH-mängden [1], som ofta kräver användning av bottentrålar och mellanvattentrålar, är av avgörande betydelse för de kommersiellt viktiga fiskbestånden inom oceanografi och fiskevetenskap. Fisk som fångas av trålar överlever dock ofta inte, och därför är det olämpligt med metoder för trålundersökningar i vissa områden där fiskbestånden är kraftigt uttömda. För att tillgodose dessa behov utvecklade vi Cam-trawl [2] för att genomföra videobaserade undersökningar. Frånvaron av lyftet gör det möjligt för fisk att passera oskadd till miljön efter provtagning (fångas av kameror). De tagna videodata ger mycket | I REF föreslås en histogram-backprojection-baserad dubbeltröskelsegmenteringsmetod. | 17,720,000 | Tracking Live Fish from Low-Contrast and Low-Frame-Rate Stereo Videos | {'venue': 'IEEE Trans. on Circuits and Systems for Video Technology, vol. 25, no. 1, pp.167-179, Jan. 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,952 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | De förlitar sig vanligen på Faster-RCNN REF och kan tränas end-to-end med icke-maximal dämpning. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 3,953 |
Loggar av användarfrågor till en internet sökmotor ger en stor mängd implicit och explicit information om språk. I detta dokument undersöker vi deras användning för att stava korrigering av sökfrågor, en uppgift som innebär många ytterligare utmaningar utöver den traditionella stavningskorrigeringsproblem. Vi presenterar en strategi som använder en iterativ omvandling av inmatningsfråga strängar till andra strängar som motsvarar mer och mer sannolika frågor enligt statistik som extraheras från internet sökfråga loggar. | Cucerzan m.fl. REF undersöka användningen av implicit och explicit information om språk som finns i frågeloggar för stavning korrigering av sökfrågor. | 5,766,312 | Spelling Correction As An Iterative Process That Exploits The Collective Knowledge Of Web Users | {'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,954 |
Abstract-This paper undersöker sannolikheten för avbrott i ett trådlöst system med konventionell strålformning med hjälp av en enhetlig linjär matris strålformare. Fokus ligger på att undersöka inverkan av bestrålningsförsämringar, såsom skattningsfel i riktning mot arrival (DOA), signalspatiala spridningar, perturbering av antenner och ömsesidig koppling. Fading statistik av Rayleigh, Rician, och Nakagami används för att karakterisera den önskade signalen, medan interferenter antas vara föremål för Rayleigh blekning. En förenklad strålformningsmodell används för att härleda sannolikhetsuttryck i sluten form. Numeriska resultat illustrerar ökningen av sannolikheter för avbrott i närvaro av DOA skattningsfel, signal rumsliga spridningar, och antenn perturbation. En försumbar påverkan på driftavbrottet kan dock konstateras på grund av ömsesidig koppling. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. Ref diskuterade enhetlig linjär matris (ULA) strålformande fel som härrör från uppskattning av ankomstriktningen (DOA), rumslig (eller vinkel) spridning av den överförda signalen, perturbering av antennmatriselementet och ömsesidig koppling av matriselement. | 14,041,950 | Outage Probabilities of Wireless Systems With Imperfect Beamforming | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 3,955 |
För varje datorsystemgenerering finns det alltid applikationer eller arbetsbelastningar för vilka huvudminnets storlek är den största begränsningen. Å andra sidan kunde man i många fall frigöra en mycket betydande del av minnesutrymmet genom att lagra data i komprimerad form. Därför är ett maskinvaru komprimerat minne ett attraktivt sätt att artificiellt öka mängden tillgängliga data i en rimlig fördröjning. Bland de data som är mycket komprimerbara är null data block. Tidigare arbete har visat att på många applikationer står null block för en betydande del av arbetsuppsättningen invånare i huvudminnet. Vi föreslår att utnyttja denna egenskap genom att använda ett maskinvarukomprimerat minne som endast riktar sig mot null data block, det frikopplade nollkomprimerade minnet. Låna idéer från den frikopplade sektorscache [12] och den nollinnehållsförstärkta cache [7], det frikopplade nollkomprimerade minnet, eller DZC-minnet, hanterar huvudminnet som en frikopplad sektorsfördelad set-associativ cache där nollblock endast representeras av en validitetsbit. Våra experiment visar att DZC-minnet för många tillämpningar gör det möjligt att artificiellt förstora huvudminnet, d.v.s. Det minskar den effektiva fysiska minnesstorlek som behövs för att rymma arbetsuppsättningen i ett program utan överdriven sidbyte. Dessutom kan DZC-minnet associeras med en nollinnehållsförstärkt cache för att hantera nollblock över hela minneshierarkin. På vissa applikationer minskar en sådan hantering minnestrafiken avsevärt och kan därför avsevärt förbättra prestandan. | Det frikopplade nollkomprimerade minnet REF ) detekterar nollblock med hjälp av en design baserad på frikopplade sektorspecifika setassociativa caches. | 9,353,343 | Decoupled Zero-Compressed Memory | {'venue': 'RR-7073, INRIA, 2009, http://hal.inria. fr/inria-00426765/en/, Research Report', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,956 |
Vi presenterar regionbaserade, helt konvolutionella nätverk för korrekt och effektiv objektdetektering. I motsats till tidigare regionbaserade detektorer som Fast/Faster R-CNN [6, 18] som tillämpar ett kostsamt delnätverk per region hundratals gånger, är vår regionbaserade detektor helt konvolutionell med nästan all beräkning delad på hela bilden. För att uppnå detta mål föreslår vi positionskänsliga poängkartor för att ta itu med ett dilemma mellan translation-invarians i bildklassificering och translation-varians i objektdetektering. Vår metod kan därför naturligt anta helt konvolutionella bild klassificera ryggrader, såsom de senaste Residual Networks (ResNets) [9], för objektdetektering. Vi visar konkurrenskraftiga resultat på PASCAL VOC dataset (t.ex., 83,6% mAP på 2007 uppsättningen) med 101-lager ResNet. Samtidigt, vårt resultat uppnås med en testtid hastighet på 170 ms per bild, 2,5-20× snabbare än Snabbare R-CNN motsvarighet. Koden görs tillgänglig för allmänheten på https://github.com/daijifeng001/r-fcn. | R-FCN REF försöker minska beräkningstiden med positionskänsliga poängkartor. | 7,428,689 | R-FCN: Object Detection via Region-based Fully Convolutional Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,957 |
Sammansättningen av flera Gaussiska processer som en djup Gaussian Process (DGP) möjliggör en djup probabilistisk nonparametrisk strategi för att flexibelt ta itu med komplexa maskininlärningsproblem med ljud kvantifiering av osäkerhet. Befintliga slutledningsmetoder för DGP-modeller har begränsad skalbarhet och är notoriskt besvärliga att konstruera. I detta arbete introducerar vi en ny formulering av DGPs baserat på slumpmässiga funktionsexpansioner som vi tränar med hjälp av stokastiska variationsinferenser. Detta ger en praktisk inlärningsram som avsevärt förbättrar den senaste teknikens slutsatser för DGP och möjliggör en exakt kvantifiering av osäkerheten. Vi visar utförligt upp skalbarheten och prestandan hos vårt förslag på flera dataset med upp till 8 miljoner observationer och olika DGP-arkitekturer med upp till 30 dolda lager. | REF introducerar en hybridmodell formulerad med slumpmässiga funktioner expansioner som kombinerar funktioner i DGPs och neurala nätverk. | 3,226,820 | Random Feature Expansions for Deep Gaussian Processes | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,958 |
Detta dokument undersöker domän generalisering: Hur tar man kunskap som förvärvats från ett godtyckligt antal relaterade domäner och tillämpar den på tidigare osynliga domäner? Vi föreslår Domain-Invariant Component Analysis (DICA), en kärnbaserad optimeringsalgoritm som lär sig en invariant transformation genom att minimera olikheten mellan domäner, samtidigt som den funktionella relationen mellan indata och utdatavariabler bevaras. En lärande-teoretisk analys visar att minska olikhet förbättrar den förväntade generalisering förmåga klassificering på nya domäner, motivera den föreslagna algoritmen. Experimentella resultat på syntetiska och verkliga dataset visar att DICA framgångsrikt lär sig invarianta funktioner och förbättrar klassificeringsprestandan i praktiken. | En funktion projektion-baserad algoritm, Domain-Invariant Component Analysis (DICA), infördes i REF att lära sig genom att minimera variansen av källdomänerna. | 2,630,174 | Domain Generalization via Invariant Feature Representation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,959 |
Nya framsteg i djupa generativa modeller har visat lovande potential i bildinflätning, som hänvisar till uppgiften att förutsäga saknade pixelvärden för en ofullständig bild med hjälp av det kända sammanhanget. Befintliga metoder kan dock vara långsamma eller generera otillfredsställande resultat med lätt påvisbara brister. Dessutom finns det ofta synbar diskontinuitet nära hålen och kräver ytterligare efterbehandling för att blanda resultaten. Vi presenterar ett nytt tillvägagångssätt för att ta itu med svårigheten att träna en mycket djup generativ modell för att syntetisera högkvalitativt fotorealistiskt måleri. Vår modell använder villkorliga generativa kontrariska nätverk (villkorliga GAN) som ryggrad, och vi introducerar ett nytt blockvis procedurutbildningsprogram för att stabilisera utbildningen samtidigt som vi ökar nätverkets djup. Vi föreslår också en ny strategi som kallas kontraarial förlust glödgning för att minska artefakter. Vi beskriver vidare flera förluster som är speciellt utformade för att måla och visa sin effektivitet. Omfattande experiment och användarstudier visar att vårt tillvägagångssätt överträffar befintliga metoder i flera uppgifter som inpainting, ansiktskomplettering och bildharmonisering. Slutligen visar vi att vårt ramverk enkelt kan användas som ett verktyg för interaktivt guidat måleri, vilket visar dess praktiska värde för att lösa gemensamma utmaningar i verkligheten. | I REF, Yang et al. utformar ett blockvis procedurellt tågsystem och en kontradiktorisk strategi för glödgning av förluster för att stabilisera utbildningen. | 4,383,516 | Image Inpainting using Block-wise Procedural Training with Annealed Adversarial Counterpart | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,960 |
Abstract-Blandad-kritiskhet realtid schemaläggning har utvecklats för att förbättra resursutnyttjandet och samtidigt garantera ett säkert genomförande av kritiska applikationer. Dessa studier använder optimistisk resursreservation för alla applikationer för att förbättra utnyttjandet, men prioritera kritiska applikationer när reservationerna blir otillräckliga vid körning. Många av dem delar dock ett opraktiskt antagande om att alla kritiska tillämpningar samtidigt kommer att kräva ytterligare resurser. Som en följd av detta underutnyttjar de resurserna genom att bestraffa alla lågkritiska tillämpningar. I detta dokument övervinner vi denna brist med hjälp av en ny mekanism som består av en parameter för att modellera det förväntade antalet kritiska applikationer som samtidigt kräver mer resurser, och en genomförandestrategi baserad på parametern för att förbättra resursutnyttjandet. Eftersom de flesta blandkritiska system i praktiken är komponentbaserade, utformar vi vår mekanism så att komponentgränserna ger den isolering som krävs för att stödja genomförandet av lågkritiska applikationer, och samtidigt skydda de kritiska. Vi utvecklar också schemaläggningstester för den föreslagna mekanismen inom såväl ett plant som ett hierarkiskt schemaläggningsramverk. Slutligen, genom simuleringar, jämför vi den föreslagna metodens prestanda med befintliga studier när det gäller schepulerbarhet och förmåga att stödja lågkritiska tillämpningar. | Gu m.fl. Ref lade fram en komponentbaserad strategi där komponentgränserna erbjuder den isolering som krävs för att stödja genomförandet av lågkritiska uppgifter. | 18,635,203 | Resource Efficient Isolation Mechanisms in Mixed-Criticality Scheduling | {'venue': 'Euromicro Conference on Real-Time Systems (ECRTS), Lund, 2015, pp. 13-24', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,961 |
Att automatiskt beskriva videoinnehåll med naturligt språk är en grundläggande utmaning för datorseendet. Recurrent Neural Networks (RNN), som modellerar sekvensdynamik, har fått ökad uppmärksamhet på visuell tolkning. De flesta befintliga metoder genererar dock ett ord lokalt med de givna tidigare orden och det visuella innehållet, medan förhållandet mellan meningsemantik och visuellt innehåll inte utnyttjas holistiskt. Som ett resultat av detta kan de skapade meningarna vara kontextuellt korrekta, men semantiken (t.ex. subjekt, verb eller objekt) är inte sann. Denna uppsats presenterar en ny enhetlig ram, kallad Long Short-Term Memory med visuell-semantiska Embedding (LSTM-E), som samtidigt kan utforska lärandet av LSTM och visuell-semantiska inbäddning. Det förstnämnda syftar till att lokalt maximera sannolikheten för att generera nästa ord givet tidigare ord och visuellt innehåll, medan det senare är att skapa en visuell-semantisk inbäddning utrymme för att upprätthålla förhållandet mellan semantiken i hela meningen och visuellt innehåll. Experimenten på YouTube2Text dataset visar att vår föreslagna LSTM-E uppnår den bästa publicerade prestandan när det gäller att generera naturliga meningar: 45,3% och 31,0% när det gäller BLEU@4 respektive METEOR. Överlägsen prestanda redovisas också på två filmbeskrivningsdataset (M-VAD och MPII-MD). Dessutom visar vi att LSTM-E överträffar flera toppmoderna tekniker för att förutsäga Subject-Verb-Object (SVO) trillingar. | LSTM-E REF undersöker relevansen mellan det visuella sammanhanget och meningsemantik. | 14,432,549 | Jointly Modeling Embedding and Translation to Bridge Video and Language | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 3,962 |
Analysen av vibrationssignaler har varit en mycket viktig teknik för feldiagnos och hälsohantering av roterande maskiner. Klassiska feldiagnosmetoder är huvudsakligen baserade på traditionella signalfunktioner såsom medelvärde, standardderivation och kurtos. Signaler innehåller fortfarande rikligt med information som vi inte fullt ut utnyttjade. I detta dokument föreslås ett nytt tillvägagångssätt för roterande feldiagnos av maskiner med funktionsextraktionsalgoritm baserad på empirisk lägesdekomposition (EMD) och konvolutionella neurala nätverk (CNN) tekniker. Det grundläggande syftet med vårt nyligen föreslagna tillvägagångssätt är att ta fram utmärkande drag. Frekvensspektrum för signalen som erhålls genom snabb Fourier transform process tränas i en utformad CNN struktur för att extrahera komprimerade funktioner med rumslig information. För att lösa den icke-stationära egenskapen tillämpar vi även EMD-teknik på de ursprungliga vibrationssignalerna. EMD-energientropi beräknas med hjälp av de första inneboende lägesfunktionerna (IMF) som innehåller mer energi. Med egenskaper som extraheras från båda metoderna kombineras, klassifikationsmodeller tränas för diagnos. Vi utförde experiment med vibrationsdata från 52 olika kategorier under olika maskinförhållanden för att testa tillvägagångssättets giltighet, och resultaten visar att det är mer exakt och pålitligt än tidigare tillvägagångssätt. | Xie REF föreslog roterande feldiagnos av maskiner baserat på konvolutionella neurala nätverk och empirisk nedbrytning (EMD). | 54,079,225 | Fault Diagnosis for Rotating Machinery Based on Convolutional Neural Network and Empirical Mode Decomposition | {'venue': None, 'journal': 'Shock and Vibration', 'mag_field_of_study': ['Mathematics']} | 3,963 |
Abstract-Vi presenterar en generisk och realtidsvariationspunkt cloud codec för 3D immersive video. Denna codec är lämplig för mixed reality applikationer där 3D-punkt moln förvärvas i snabb takt. I denna codec kodas intraramar gradvis i en octree underavdelning. För att ytterligare utnyttja interframe beroenden presenterar vi en interpredictional algoritm som partitionerar octree voxel utrymme i N × N × N makroblock (N = 8, 16, 32). Algoritmkoderna pekar i dessa block i den prediktiva ramen som en stel transform applicerad på punkterna i den intrakodade ramen. Den stela omvandlingen beräknas med hjälp av den iterativa närmaste punktalgoritmen och är kompakt representerad i ett quaternion quantization schema. För att koda färgattribut, definierade vi en kartläggning av färg per vertex attribut i den korsade oktree till en bild rutnät och använda äldre bildkodning metod baserat på JPEG. Som ett resultat av detta utvecklas en generisk komprimeringsram som lämpar sig för 3D-telemmersion i realtid. Detta ramverk har optimerats för att köras i realtid på hårdvara för både kodare och dekoder. Objektiv utvärdering visar att en högre frekvens-snedvridning prestanda uppnås jämfört med tillgängliga punktmoln codecs. En subjektiv studie i ett toppmodernt blandat verklighetssystem visar att de förutsägelser som introducerats är försumbara jämfört med de ursprungliga rekonstruerade punktmolnen. Dessutom visar det fördelen med rekonstruerade punktmoln video som en representation i 3D virtuella världen. Codec finns som öppen källkod för integration i immersiva och utökade kommunikationsapplikationer och fungerar som en basreferensplattform i JTC1/SC29/WG11 (MPEG) för vidareutveckling av standardiserade komprimeringslösningar för point-cloud. | Mekuria et al REF använde en blockbaserad metod för att beräkna en stel transform mellan kompatibla makroblock i på varandra följande ramar med hjälp av den iterativa närmaste punktalgoritmen. | 6,272,402 | Design, Implementation, and Evaluation of a Point Cloud Codec for Tele-Immersive Video | {'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']} | 3,964 |
Fotorealistisk ansiktsuttryck syntes från enstaka ansikte bild kan i stor utsträckning tillämpas på ansikte igenkänning, data förstärkning för känslor igenkänning eller underhållning. Detta problem är utmanande, delvis på grund av en knapphet av märkta ansiktsuttryck data, vilket gör det svårt för algoritmer att disambiguera förändringar på grund av identitet och förändringar på grund av uttryck. I detta dokument föreslår vi den villkorliga skillnaden mot en autoencoder (CDAAE) för ansiktsuttryckssyntes. CDAAE tar en ansiktsbild av en tidigare osynlig person och genererar en bild av den personens ansikte med en mål känsla eller ansiktsaction enhet (AU) etikett. CDAAE lägger till en feedforward-sökväg till en autoenkoderstruktur som ansluter lågnivåfunktioner vid kodaren till funktioner på motsvarande nivå vid dekodern. Det hanterar problemet med disambiguating förändringar på grund av identitet och förändringar på grund av ansiktsuttryck genom att lära sig att generera skillnaden mellan låg nivå funktioner i bilder av samma person men med olika ansiktsuttryck. CDAAE-strukturen kan användas för att skapa nya uttryck genom att kombinera och interpolera mellan ansiktsuttryck/aktionsenheter inom träningssetet. Våra experimentella resultat visar att CDAAE kan bevara identitetsinformation när man skapar ansiktsuttryck för osynliga ämnen mer troget än tidigare metoder. Detta är särskilt fördelaktigt vid utbildning med små databaser. | Zhou m.fl. I REF föreslogs en villkorlig skillnad mot automatisk autoenkoder (CDAAE) för att skapa ansikten som är beroende av känslotillstånd eller AU-etiketter. | 3,407,810 | Photorealistic facial expression synthesis by the conditional difference adversarial autoencoder | {'venue': '2017 Seventh International Conference on Affective Computing and Intelligent Interaction (ACII)', 'journal': '2017 Seventh International Conference on Affective Computing and Intelligent Interaction (ACII)', 'mag_field_of_study': ['Computer Science']} | 3,965 |
Med tanke på ett stort nätverk, syftar lokalsamhället upptäckt till att hitta gemenskapen som innehåller en uppsättning frågenoder och också maximerar (minimerar) en godhet metriska. Detta problem har nyligen väckt stort forskningsintresse. Olika mått på godhet har föreslagits. De flesta befintliga mätvärden har dock en tendens att inkludera irrelevanta subgrafer i det upptäckta lokala samhället. Vi hänvisar till sådana irrelevanta subgrafer som fria ryttare. Vi studerar systematiskt de befintliga godhetsmåtten och ger teoretiska förklaringar om varför de kan orsaka den fria ryttarens effekt. Vi utvecklar vidare en frågesidig nodvägningsplan för att minska den fria ryttareffekten. I synnerhet viktas varje nod av dess närhet till frågenoden. Vi definierar en frågesidig densitetsmått för att integrera kant- och nodvikter. Den fråga partisked tätaste subgraph, som har den största fråge partisk densitet, kommer att skifta till grannskapet av frågenoder efter nod viktning. Vi formulerar sedan frågetätaste uppkopplade subgraph (QDC) problem, studera dess komplexitet, och ge effektiva algoritmer för att lösa det. Vi utför omfattande experiment på en mängd olika verkliga och syntetiska nätverk för att utvärdera effektiviteten och effektiviteten hos de föreslagna metoderna. | al REF använder en variant av graden normaliserad, bestraffad slå sannolikhet att väga noderna genom att börja från frågenoder, och definiera den ömsesidiga vikten som frågan partisk densitet för att effektivt minska den fria ryttare effekt som tenderar att inkludera irrelevanta subgrafer i det upptäckta lokala samhället. | 7,159,758 | Robust Local Community Detection: On Free Rider Effect and Its Elimination | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 3,966 |
En ny applikationsarkitektur är utformad för kontinuerliga, i realtid distribuerade trådlösa sensornätverk. Vi utvecklar ett trådlöst sensornätverk för maskinkonditionsbaserat underhåll (CBM) i små maskinutrymmen med kommersiellt tillgängliga produkter. Vi utvecklar en maskinvaruplattform, nätverksarkitektur och kommunikationsprotokoll för medium åtkomst. Vi implementerar ett enhops sensornätverk för att underlätta realtidsövervakning och omfattande databehandling för maskinövervakning. En ny radiobatteriförbrukningsmodell presenteras och batteriförbrukningsekvationen används för att välja den lämpligaste topologin och utforma ett energieffektivt kommunikationsprotokoll för trådlösa sensornätverk. En ny strömlinjeformad matris formulering utvecklas som gör det möjligt för basstationen att beräkna de bästa periodiska sömntider för alla noder i nätverket. Vi kombinerar schemaläggning och strid för att utforma en hybrid MAC-protokoll, som uppnår 100% kollision undvikande genom att använda vår modifierade RTS-CTS stridsmekanism kallas UC-TDMA protokoll. Ett LabVIEW grafiskt användargränssnitt beskrivs som möjliggör signalbehandling, inklusive FFT, olika ögonblick, och kurtos. En trådlös CBM-sensornätverk implementation på en värme- och luftkonditioneringsanläggning presenteras som en fallstudie. Tiwari, A., Ballal, P., och Lewis, F. L. 2007. Energieffektiv design och implementering av trådlösa sensornätverk för tillståndsbaserad underhåll, ACM Trans. | Ett IWSN för övervakning av maskinkonditionsbaserat underhåll i små maskinutrymmen har utvecklats och rapporterats i REF. | 7,278,286 | Energy-efficient wireless sensor network design and implementation for condition-based maintenance | {'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,967 |
Computational science applications driver en efterfrågan på allt kraftfullare lagringssystem. Medan många tekniker finns tillgängliga för att fånga I/O-beteendet hos enskilda applikationskörningar och specifika komponenter i lagringssystemet, förblir kontinuerlig karakterisering av ett produktionssystem en skrämmande utmaning för system med hundratusentals beräkningskärnor och flera petabyte lagring. Som ett resultat av detta är dessa lagringssystem ofta utformade utan en tydlig förståelse av de olika datavetenskapliga arbetsbelastningar de kommer att stödja. I denna studie skisserar vi en metodik för skalbar, kontinuerlig, systemövergripande I/O-karakterisering som kombinerar lagringsenheters instrumentering, statisk filsystemanalys och en ny mekanism för att fånga upp detaljerat beteende på applikationsnivå. Denna metod gör det möjligt för oss att identifiera både systemomfattande trender och tillämpningsspecifika I/O-strategier. Vi demonstrerar effektiviteten av vår metodik genom att utföra en studie på flera nivåer, två månader av Intrepid, ett 557-teraflop IBM Blue Gene/P-system. Under den tiden fångade vi I/O-karakteriseringar på applikationsnivå från 6 481 unika jobb som spänner över 38 vetenskaps- och ingenjörsprojekt. Vi använde resultaten från vår studie för att justera exempelapplikationer, belysa trender som påverkar utformningen av framtida lagringssystem och identifiera möjligheter till förbättring i I/O-karakteriseringsmetodik. | Till exempel presenterade REF analysen av två månaders I/O-spår på applikationsnivå som samlats in från Intrepid, ett 557-teraflop IBM Blue Gene/P-system, med Darshan. | 16,672,348 | Understanding and Improving Computational Science Storage Access through Continuous Characterization | {'venue': 'TOS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,968 |
Wikificering för tweets syftar till att automatiskt identifiera varje begrepp som nämns i en tweet och länka det till ett begrepp referens i en kunskapsbas (t.ex. Wikipedia). På grund av bristen på en tweet, en kollektiv inferens modell som innehåller globala bevis från flera omnämnanden och begrepp är lämpligare än en noncollecitve strategi som länkar varje omnämnande i taget. Dessutom är det svårt att ta fram tillräckligt kvalitetsmärkta data för övervakade modeller med låga kostnader. För att ta itu med dessa utmaningar föreslår vi en ny semi-övervakad graf legaliseringsmodell för att införliva både lokala och globala bevis från flera tweets genom tre finkorniga relationer. För att identifiera semantiskt relaterade omnämnanden för kollektiv inferens upptäcker vi metastigsbaserade semantiska relationer genom sociala nätverk. Jämfört med den toppmoderna övervakade modellen tränad från 100% märkta data, uppnår vårt föreslagna tillvägagångssätt jämförbar prestanda med 31% märkta data och får 5% absolut F1 vinst med 50% märkta data. | Ref föreslog ett kollektivt tillvägagångssätt baserat på halvövervakad grafreglering och uppnådde toppmoderna prestanda för tweets. | 8,963,258 | Collective Tweet Wikification based on Semi-supervised Graph Regularization | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,969 |
Tillkomsten av hög-genomströmning sekvensering teknik har resulterat i förmågan att mäta miljontals en-nukleotid polymorphisms (SNPs) från tusentals individer. Även om dessa högdimensionella data har banat väg för bättre förståelse av den genetiska arkitekturen hos vanliga sjukdomar, har de också gett upphov till utmaningar i utvecklingen av beräkningsmetoder för att lära epistatiska relationer mellan genetiska markörer. Vi föreslår en ny metod, kallad cuckoo search epistasis (CSE) för att identifiera betydande epistatiska interaktioner i populationsbaserade associationsstudier med en fallkontroll design. Denna metod kombinerar en beräkningseffektiv Bayesian scoring-funktion med en evolutionär-baserad heuristisk sökalgoritm, och kan effektivt tillämpas på högdimensionella genom-bred SNP-data. De experimentella resultaten från syntetiska datauppsättningar visar att CSE överträffar befintliga metoder inklusive reduktion av multifaktoriell dimensionalitet och kartläggning av Bayesian epistasis association. Dessutom, på en verklig genom-wide data uppsättning relaterade till Alzheimers sjukdom, CSE identifierade SNPs som överensstämmer med tidigare rapporterade resultat, och visa nyttan av CSE för tillämpning på genom-wide data. Heredity (2014) 112, 666-674; doi:10.1038/hdy.2014 publicerad online 19 februari 2014 Nyckelord: single-nukleotid polymorphism; epistatiska interaktioner; dimensionalitetsreduktion; göksökning INTRODUCTION En källa till komplexitet i biologiska system beror på rika interaktioner mellan komponenterna (Weng et al., 1999; Hlavacek och Faeder, 2009 ). Tillkomsten av höggenomströmning genotypning och sekvensering teknologier har möjliggjort mätning av miljontals en-nukleotid polymorphisms (SNPs) - den vanligaste typen av genetiska varianter-i en individ. Detta har banat väg för förståelsen av den genetiska arkitekturen hos vanliga sjukdomar, men har också gett upphov till utmaningar när det gäller att utveckla effektiva metoder för att identifiera interaktioner (epistas) mellan genetiska varianter. Flera metoder har utvecklats för att analysera genetiska data som fokuserar på epistatiska interaktioner och inkluderar frekventistiska och Bayesianska statistiska metoder och beräkningsmetoder (Ritchie et al., 2001; Zhang and Xu, 2005; Zhao och Xiong, 2006; Ferreira et al., 2007; Zhang and Liu 2007; Gayan et al., 2008; Li et al., 2008b; Park and Hastie, 2008; Jung et al., 2009; Miller et al., 2009; Wang, 2009; Wu et al., 2009). En viktig utmaning är det stora antalet statistiska tester som måste utföras i epistastester, särskilt i genomomfattande studier (GWA) som mäter ett stort antal SNPs (Bellman och Kalaba, 1959, Steen, 2011). Dessutom högdimensionellitet uppstår från multi-locus kombinationer, den relativt små provstorlek och den resulterande data sparhet leder till brist på kraft i data mining metoder (Cordell, 2009; Steen, 2011). För att ta itu med utmaningen med högdimensionellitet har flera urvalsmetoder använts för GWA-data som ett första steg för att identifiera informativa SNPs (Dube et al., 2007, Saeys et al., 2007. Feature urvalsmetoder kan i stort grupperas i två kategorier som inkluderar filter och omslag metoder (Freitas, 2002). Dessutom har urvalsmetoder som utnyttjar biologiska kunskaper som är relevanta för SNP, såsom INTERSNP och Biofilter, utvecklats som alternativ till filter- och omslagsmetoder som inte stämmer sådana kunskaper (Bush et al., 2009; Herold et al., 2009). INTERSNP är ett tidseffektivt tillvägagångssätt för att välja kombinationer av SNPs för en ytterligare interaktionsanalys baserad på en förhandsinformation som erhållits från antingen statistiska belägg för enmarkör association eller biologiska/genetisk relevans informationskällor (Herold et al., 2009). På samma sätt är Biofilter ett systematiskt kunskapsbaserat tillvägagångssätt för att producera SNP-modeller genom att integrera flera genetiska databaser. Detta tillvägagångssätt kan genomföras med en mängd olika tekniker såsom logistisk regression, klassificering och regression träd (Bush et al., 2009). Filtermetoderna bedömer normalt kvaliteten på varje attribut (t.ex. en SNP) med hjälp av ett urvalskriterium. Dessa typer av funktioner urvalsmetoder har fördelen av att vara snabb, men ofta kritiseras för sin oförmåga att välja relevanta attribut som är involverade i en betydande interaktion effekt på känsligheten för en sjukdom eller egenskap men som inte skulle visa tillräckliga individuella effekter för urval. Wrapper tillvägagångssätt, å andra sidan, försök att utvärdera undergrupper av attribut baserat på urval klassificering noggrannhet. I motsats till filtermetoder gör omslagsmetoder det möjligt att behålla alla attribut och använda en urvalsannolikhet (Moore et al., 2010). Som ett resultat av detta elimineras inget attribut från analysen. Det finns olika typer av omslagsmetoder och bland dem evolutionära datoralgoritmer som den genetiska algoritmen (GA) och evolutionsstrategin metoder har lockat mycket uppmärksamhet för stokastisk sökning av epistatiska interaktioner (Li et al., 2001; Ooi och Tan, 2003; Moore et al., 2004; Shah och Kusiak, 2004; Jirapech-Umpai och Aitken, 2005). Nyligen föreslogs en GA-baserad hybridalgoritm kallad genetisk ensemble (GE) av ; denna metod bygger på en kombination av en ensemble av klassificeringar och en multi-objektiv GA (Zhang och Yang 2008;. GE-algoritmen visade sig överträffa andra GA-baserade metoder (Zhang och Yang, 2008). Men ensemble metoder som GE kräver olika och exakta klassificeringar för att uppnå bättre noggrannhet, och identifiera en effektiv uppsättning av klassificeringar kan vara svårt (Dietterich, 2000). Det är svårt att välja lämpliga klassificeringar för olika datamängder med olika antal attribut och prover och att korrekt konfigurera parametrar för varje klassificering. Dessutom är ensemblemetoder sannolikt dyrare än metoder som använder en enda klassificering. Slutligen, trots den överlägsna prestanda av GAs i jämförelse med gradient-baserade optimeringsmetoder, de är känsliga för parameterinställningar, uppvisar varierande prestanda för olika konfigurationer av parametrar såsom populationsstorlek, crossover frekvens och mutationsfrekvens (Kumar och Chakarverty, 2011). Motiverade av evolutionära algoritmer utvecklar och utvärderar vi en snabb stokastisk sökmetod kallad cuckoo search epistasis (CSE) för att identifiera betydande epistatiska interaktioner i GWA-studier. CSE skiljer sig från wrapper funktion urvalsmetoder i att CSE inte söker efter en delmängd av informativa attribut som ytterligare analyseras för epistasis, men utför stokastisk sökning av epistasis utan klassificering eller utbildning/prediction schema. CSE använde en ny och relativt snabb evolutional algoritm som kallas göksökning (CS), som presterar bättre än andra evolutionära algoritmer. Dessutom använder CSE en beräkningseffektiv Bayesian score för att utvärdera kombinationer av SNPs för association med fenotypen. Vi jämför CSE:s förmåga att identifiera epistatiska interaktioner med multifaktoriell dimensionsreduktion (MDR) och Bayesian epistasis associationkartläggning (BEAM) med hjälp av syntetiska dataset. Vi tillämpar också CSE på en Alzheimers sjukdom GWA datauppsättning som innehåller över 300 000 SNPs. Detta avsnitt ger bakgrundsinformation om Bayesian combinatorial method (BCM), som använder en Bayesian statistik för att mäta genetiska interaktioner. CSE-metoden använder Bayesian statistik av BCM för att utvärdera kombinationer av SNPs. Dessutom ges kortfattade beskrivningar av MDR och BEAM. | Den metod som rapporteras i REF kombinerar Bayesian scoring med en evolutionär-baserad heuristisk metod; den tillät att bearbeta omkring 1.400 underjets och 300.000 SNPs. | 2,979,679 | Cuckoo search epistasis: a new method for exploring significant genetic interactions | {'venue': 'Heredity', 'journal': 'Heredity', 'mag_field_of_study': ['Biology', 'Medicine']} | 3,970 |
Hypervolymindikatorn är en uppsättning mått som används i evolutionär multiobjektiv optimering för att utvärdera prestandan hos sökalgoritmer och för att vägleda sökningen. Multiobjektiva evolutionära algoritmer med hjälp av hypervolymindikatorn omvandla multiobjektiva problem till enskilda objektiva genom att söka efter en ändlig uppsättning lösningar som maximerar motsvarande hypervolymindikator. I detta dokument undersöker vi teoretiskt hur de optimala μ-distributioner-finita uppsättningar av μ-lösningar som maximerar hypervolymindikatorn sprids över Pareto fronten av biobjektiva problem. Detta problem är av stor betydelse för praktiska tillämpningar eftersom dessa uppsättningar karakteriserar de preferenser som hypervolym indikator kodar, dvs, vilka typer av Pareto ställa approximationer gynnas. Vi tar särskilt itu med frågan om huruvida hypervolymindikatorn är partisk gentemot vissa regioner. För linjära fronter bevisar vi att fördelningen är enhetlig med konstant avstånd mellan två på varandra följande punkter. För allmänna fronter där det förmodligen är omöjligt att karakterisera exakt fördelningen, får vi ett gränsresultat när antalet punkter växer till oändlighet som bevisar att den empiriska densiteten av punkter konvergerar till en densitet som är proportionell mot kvadratroten av negativet av derivatan av fronten. Våra analyser visar att det inte är formen av Pareto fronten utan bara dess lutning som avgör hur de punkter som maximerar hypervolym indikatorn fördelas. Experimentella resultat visar att gränsvärdets densitet är en god approximation av den empiriska densiteten för små μ. Dessutom analyserar vi frågan om var man ska placera referenspunkten för indikatorn så att ytterligheterna i fronten kan hittas om hypervolymindikatorn är optimerad. Vi härleder en explicit lägre gräns (eventuellt oändligt) för att säkerställa närvaron av extremerna i den optimala fördelningen. Detta resultat motsäger den gemensamma uppfattningen att referenspunkten måste väljas nära nadirpunkten: för vissa typer av fronter visar vi att ingen ändlig referenspunkt gör det möjligt att ha ytterligheterna i den optimala μ-fördelningen. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Kategorier och ämnesdeskriptorer Allmänt Termer Teori Hypervolymindikator, multiobjektiv optimering Fältet evolutionär multiobjektiv optimering handlar främst om frågan om att approximera Paretooptimal set, och olika algoritmer har föreslagits för detta ändamål. Under de senaste åren, sök algoritmer baserade på hypervolym indikator [27], en uppsättning mått som återspeglar volymen som omges av en Pareto front approximation och en referensuppsättning, har blivit allt populärare, t.ex. [16, 9, 14]. De övervinna de problem som uppstår med densitet-baserade multiobjektiva evolutionära algoritmer [21], eftersom hypervolym indikator garanterar strikt monotonicitet avseende Pareto dominans [11, 28]. Dessutom har de senaste utvidgningarna [23, 1] breddat tillämpligheten av denna åtgärd med avseende på företräde för artikulation och högdimensionella målområden. Därför förväntar vi oss att det vetenskapliga intresset för hypervolymindikatorn för sökning och prestandabedömning kommer att öka ytterligare. Denna utveckling motiverar varför flera forskare har försökt att bättre förstå hypervolymindikatorn ur ett teoretiskt perspektiv, t.ex. [11, 28, 23]. Ett viktigt resultat är att en uppsättning lösningar som uppnår maximal hypervolym för ett specifikt problem täcker hela Paretofronten [11]. Motsvarande uppsättning kan dock innehålla ett oändligt antal lösningar, medan i praktiken vanligtvis bundna lösningsset beaktas. Att begränsa antalet punkter till, låt oss säga μ, förändrar situationen: i detta fall kan endast en del av Paretofronten täckas, och hur punkterna fördelas över fronten beror på flera aspekter, särskilt på de främre egenskaperna och valet av referensuppsättning. Den resulterande placeringen av punkter återspeglar fördomarna i hypervolymindikatorn, och denna fråga har inte undersökts rigoröst hittills. Zitzler och Thiele [27] angav till exempel att när hypervolymoptimeringsproblemen optimeras kan "konvexa regioner föredras framför konkava regioner", vilket är 87 som också anges i [18], medan Deb et al. [7] hävdade att "[. ............................................................................................................. Knowles och Corne konstaterade att en lokal optimering av hypervolymindikatorn " verkar vara "väldistribuerad" [16], vilket också bekräftades empiriskt [17, 9]. Vissa författare tog också upp valet av referensuppsättning som vanligtvis bara innehåller en enda referenspunkt. Knowles och Corne [17] visade hur referenspunkten påverkar resultaten av utvalda multiobjektiva evolutionära algoritmer baserat på en experimentell studie. Dessutom finns tumregler, t.ex. rekommenderar många författare att använda hörnet av ett utrymme som är lite större än det faktiska objektiva utrymmet som referenspunkt. Exempel är hörnet av en låda som är 1 % större än det objektiva utrymmet i [15] eller en låda som är större med en additiv term på 1 än de yttersta objektiva värden som erhållits som i [3]. I olika publikationer väljs referenspunkten som nadirpunkten för den undersökta lösningen, t.ex. i [20, 19, 13], medan andra rekommenderar skalning av de objektiva värdena varje gång hypervolymindikatorn beräknas [25]. Ovanstående uttalanden om fördomarna i hypervolymindikatorn verkar vara motsägelsefulla och hittills finns inga teoretiska resultat tillgängliga som kan bekräfta eller förfalska någon av dessa hypoteser. I detta dokument ges en teori som tar upp bimålsfrågan och därigenom bidrar till en teoretisk förståelse av de principer som ligger till grund för indikatorn för hypervolym. I detta syfte kommer vi först formellt att redogöra för den inställning som behandlas i detta dokument (avsnitt 2) och presentera några grundläggande resultat när det gäller den optimala fördelningen av punkter på Paretofronten (avsnitt 3). Avsnitt 4 undersöker påverkan av en referenspunkt på placeringen av en ändlig uppsättning punkter. Därefter kommer vi matematiskt att härleda optimala placeringar av poäng för Paretos fronter som kan beskrivas med en linje (avsnitt 5). Senare, Vi utvidgar dessa resultat till allmänna frontformer förutsatt att antalet punkter i fördelningarna konvergerar till oändlighet (Avsnitt 6) och ger heuristiska metoder för att bestämma den optimala fördelningen av μ-punkter (Avsnitt 7). Under hela denna studie, anser vi en bikriterion optimering problem F : R d → R 2 bestående av två mål (F1(x), F2(x)) = F(x) som är utan förlust av allmängiltighet ska minimeras. De optimala lösningarna (Pareto optima) för detta problem ges av minimala delar av den beställda uppsättningen (R d, ) där står för den svaga Pareto dominans relation : Vi antar att det övergripande optimeringsmålet är att approximera uppsättningen Pareto optima-the Pareto set-med hjälp av en lösning uppsättning och att hypervolym indikatorn [27] används som ett mått för att kvantifiera kvaliteten på en lösning uppsättning. Bilden av Pareto set under F kallas Pareto front eller bara front för kort. Den hypervolymindikator IH ger, ungefär, volymen av den objektiva subrymden som domineras av en lösning som är inställd A på R d under övervägande; den kan definieras på följande sätt på grundval av en referensuppsättning R på R 2 : där i följande fall det vanliga fallet med en enda referenspunkt r = (r1, r2) R 2 beaktas endast, dvs. R = {r}. Det är känt att det största möjliga hypervolymvärdet endast kan uppnås när lösningen som A innehåller för varje punkt z på Paretofronten minst en motsvarande lösning x och A med F(x) = z, dvs. bilden av A under F innehåller Paretofronten [11]. Detta teoretiska resultat förutsätter dock att A kan innehålla ett antal lösningar, även oändligt många. I praktiken är storleken på A vanligtvis begränsad, t.ex. av befolkningsstorleken när en evolutionär algoritm används, och därför är frågan hur indikatorn IH påverkar det optimala urvalet av ett begränsat antal μ-lösningar. För enkelhetens skull kommer vi endast att beakta de objektiva vektorerna i följande och påpeka att i det biobjektiva fallet kan Paretofronten beskrivas som en funktion f för att kartlägga bilden av Pareto som anges under F1 på bilden av Pareto som anges under F2. Vi antar att bilden av F1 är ett slutet intervall [xmin, xmax] och definierar f som den funktion som beskriver Paretofronten: Ett exempel ges i figur 1 där en front representeras i termer av denna funktion f (x). Eftersom f representerar formen av avräkningsytan, kan vi dra slutsatsen att, för minimering problem, f är strikt monotont minska i [xmin, xmax] 1. Dessutom anser vi bara kontinuerliga funktioner f. Nu är en uppsättning μ punkter på Pareto front helt bestäms av x-koordinater respektive F1 värden av dessa punkter, här betecknar som (x μ 1,. ., x μ ), och f. Utan förlust av allmängiltighet, antas det att x Om f inte är strikt monotont minskande, kan vi hitta Pareto-optimala punkter (x1, f(x1)) och (x2, f(x2)) med x1, x2 till [xmin, xmax] sådan att, utan förlust av allmänhet, x1 < x2 och Figur 2 ). Den hypervolym som omges av dessa punkter kan vara analogt med Eq. 1, lätt att bestämma: det är summan av rektanglar av bredd (Här, hypervolym indikator Innan vi kan karakterisera en uppsättning punkter maximera hypervolym (dvs, Eq. 2) måste vi vara säkra på att problemet är väldefinierat, dvs. att det finns minst en uppsättning punkter som maximerar Eq. 2. Utgångspunkten är följande: Existensen bevisas i nästa teorem förutsatt att f är kontinuerlig. 1 {y>f (x)} dynx där vi förlänger f för x > xmax genom att ställa in f (x) till konstantvärdet f (xmax). Därför, från medelvärdet teorem det finns en uppsättning av μ punkter maximera hypervolym indikator. Observera att det tidigare teorem anger existensen men inte den unika, vilket inte är sant i allmänhet men kommer att vara för linjära fronter (och vissa val av referenspunkten), vilket bevisas senare i tidningen. En uppsättning punkter som maximerar den hypervolym vars existens bevisas i föregående sats kommer att kallas en optimal μ-fördelning. Det associerade värdet av hypervolym anges som I Denna fråga kommer att behandlas i följande avsnitt. I detta avsnitt presenteras preliminära resultat för optimal μ-fördelning. Det första resultatet handlar om hur den hypervolym som är förenad med optimal μ-fördelning ökar med μ. Detta resultat är särskilt användbart för bevis på Corollary 1. Det här är Lemma 1. Låt X till R och f : X → f (X) beskriva Pareto fronten. Låt μ1 och μ2 N med μ1 < μ2, och håll sedan om X innehåller minst μ1 + 1 grundämnen xi för vilka xi < r1 och f (xi) < r2 håller. Bevis. För att bevisa lemma räcker det att visa ojämlikheten för μ2 = μ1 + 1. Antag Dμ 1 = {x H. Eftersom X innehåller minst μ1 + 1 element, är den inställda X\Dμ 1 inte tom och vi kan välja någon xnew X\Dμ 1 som inte ingår i den optimala μ1-distributionen och för vilken f (xnew) definieras. Låt xr := min{x skax på Dμ 1... {r1}, x > xnew} vara det närmaste elementet av Dμ 1 till höger om xnew (eller r1 om xnew är större än alla element i Dμ 1 ). På samma sätt, låt f l := min{r2, {f (x) ska x Dμ 1, x < xnew}} vara funktionsvärdet för det närmaste elementet av Dμ 1 till vänster om xnew (eller r2 om xnew är mindre än alla element i Dμ 1 ). Sedan, alla objektiva vektorer inom f(xnew)) är (svagt) domineras av den nya punkten (xnew, f(xnew)) men domineras inte av någon objektiv vektor som ges av Dμ 1. Dessutom är Hnew inte en null set (dvs. har ett strikt positivt mått) eftersom xnew > xr och f l > f(xnew) vilket ger I μ 1 Nästa förslag är ett centralt resultat av papperet som anger att x-koordinaterna för en uppsättning μ-punkter måste nödvändigtvis uppfylla en upprepningsrelation (ekv. 3) för att vara en optimal μ-fördelning. Den viktigaste idén för härledningen är att, med tanke på tre på varandra följande punkter på Pareto front, flytta mittpunkten bara kommer att påverka den hypervolym bidrag som är enbart tillägnad denna punkt (de gemensamma hypervolym bidrag förblir fast). För att tillhöra en optimal μ-fördelning måste följaktligen den hypervolymkomponent som enbart tillskrivs mittpunkten vara maximal. Förslag 1. (Necessärt tillstånd för optimal μ-fördelningar) Om f är kontinuerlig, differentierad och där f betecknar derivatan av f, f (x För en optimal μ-fördelning, måste var och en av hypervolym bidrag Hi vara maximal med avseende på x μ i eftersom annars skulle man kunna öka I Omorganisation villkoren och inställning H i (x μ i ) till noll, vi erhålla Eq. 3. Vad är det som händer? Det tidigare förslaget innebär att punkterna för optimal μ-fördelning är kopplade till Eq. 3. Vad är det som händer? I synnerhet bestäms μ-punkterna helt så snart x μ 1 och x μ 2 är inställda. Att hitta punkterna för en optimal μ-fördelning, dvs. att maximera den till synes μ-dimensionella funktionen (2) visar sig därför vara ett tvådimensionellt optimeringsproblem. En första följd av Lemma 1 och Proposition 1 är att en optimal punkt är antingen på en extrem av Pareto front eller inte kan vara en stationär punkt f, dvs en punkt där derivatan av f är lika med noll. Optimala μ-distributioner är lösningarna på maximeringsproblemet i Eq. 2 som beror på valet av referenspunkt. Vi ställer nu frågan hur valet av referenspunkt påverkar optimala μ-fördelningar och undersöker särskilt om det finns ett val av referenspunkt som innebär att extremerna i Paretofronten ingår i optimala μ-fördelningar. Vi bevisar i Theorem 2 (sp. Teorem 3) att om derivatan av Pareto front vid den vänstra extremen (sp. höger extrem) är oändlig (resp. är noll), det finns inget val av referenspunkt som kommer att tillåta att vänster (resp. höger) extrem front ingår i optimala μ-fördelningar. Detta resultat strider mot den gemensamma uppfattningen att det är tillräckligt att välja referenspunkten något ovanför och till rätten till nadirpunkten för att uppnå ytterligheterna. Dessutom, när derivatan är ändlig till vänster extrem och icke-noll till höger extrem vi bevisa en explicit lägre gräns (eventuellt oändligt) för valet av referenspunkt som säkerställer att någon referenspunkt ovanför denna lägre gräns garanterar att extremerna av fronten ingår i optimala μ-fördelningar. Kom ihåg att r = (r 1, r2) betecknar referenspunkten och y = f (x) med x [xmin, xmax] representerar Paretofronten där därför (xmin, f(xmin)) och (xmax, f(xmax)) är vänster och höger extrempunkter. Eftersom vi vill att alla Paretooptimala lösningar ska bidra till frontens hypervolym för att eventuellt vara en del av optimala μ-distributioner, antar vi att referenspunkten domineras av alla Paretooptimala lösningar, dvs.. r1 ≥ xmax och r2 ≥ f (xmin). där överarmen i den föregående ekvationen möjligen är oändlig. När R2 är ändlig finns den vänstra yttersta punkten i optimala μ-fördelningar om referenspunkten r = (r1, r2) är sådan att r2 är strikt större än R2. Dessutom, om limx→x min −f (x) = +∞, är den vänstra yttersta punkten på fronten aldrig inkluderad i optimala μ-fördelningar. För att sektionen ska vara läsbar finns beviset på ovanstående sats samt följande bevis i bilagan. På liknande sätt härleder vi följande teorem för att inkludera den högra Pareto-optimala punkten (xmax, f(xmax)) i optimala μ-fördelningar. Om f (xmax) = 0, är den högra extrempunkten aldrig inkluderad i optimala μ-fördelningar. I följande exempel illustrerar vi hur Theorem 2 och 3 kan användas på testproblem. och därför enligt Theorem 2, den vänstra mest Pareto-optimala punkten ingår aldrig i optimala μ-fördelningar. Dessutom har vi f (x) < 0 för alla x på] 0, 1]. Låt oss beräkna R1 definieras i Eq. 5: Från Theorem 3 vet vi därför att rätt ytterlighet ingår om r1 > 3. Tabell 1 visar resultaten även för andra testproblem. I detta avsnitt, Vi har en närmare titt på linjära Pareto fronter, dvs, fronter avbildas som raka linjer som kan formellt definieras som f: x på [xmin, xmax] → αx + β där α < 0 och β R. För linjära fronter med lutning α = −1, Beume et al. [2] redan visat att en uppsättning av μ-punkter maximerar hypervolym om och endast om punkterna är jämnt fördelade. Deras metod tillåter dock inte att ange var de vänstra och högra punkterna måste placeras för att maximera hypervolymen med avseende på en viss referenspunkt; dessutom kan metoden inte generaliseras till godtyckliga linjära fronter med andra sluttningar än −1. Samma resultat av lika avstånd mellan punkter som maximerar hypervolym har visats med en annan teknik i [10] för front f (x) = 1 − x. Även om den bevisteknik som används i [10] kunde generaliseras till godtyckliga linjära fronter, håller det erhållna resultatet återigen endast under antagandet att både den vänstra och den högra punkten är fast. Därför är frågan om var μ-punkter måste placeras på linjära fronter för att maximera hypervolymindikatorn utan något antagande om extrema punkter fortfarande inte besvarad. Inom detta avsnitt visar vi för linjära fronter av godtycklig lutning, hur optimala μ-fördelningar ser ut utan att göra några antaganden om positionerna för extrema lösningar. Först och främst ser vi som en direkt konsekvens av Proposition 1 att avståndet mellan två angränsande lösningar är konstant för godtyckliga linjära fronter: Bevis. Tillämpar Eq. 3 till f (x) = αx + β innebär att., μ − 1 och därför avståndet mellan på varandra följande punkter av optimala μ-fördelningar är konstant. Dessutom, i fall referenspunkten inte domineras av extrema punkter i Pareto front, dvs r1 < xmax och r2 är inställd så att det finns (en unik), Det finns en unik optimal μ-fördelning som kan bestämmas exakt, se även vänster plott av Bild. 4 : Bevis. Från Eq. 3 och det tidigare beviset vi vet att I ljuset av avsnitt 4, nästa fråga vi undersöker är valet av referenspunkt som säkerställer att optimal μ-fördelning innehåller ytterligheterna av fronten. Eftersom f (x) = α med 0 < α < +∞, ser vi att R2 och R1 som definieras i teorem 2 och 3 är ändliga och därmed vi nu att det finns ett val av referenspunkt som säkerställer att få ytterligheter. Följande teorem anger motsvarande nedre gränser för referenspunkten och anger den optimala μ-fördelning som är förknippad med ett sådant val. Rätt komplott i Bild. 4 illustrerar den optimala μ-distributionen för μ = 4 poäng. [xmin, xmax] → αx + β med α < 0, β på R och referenspunkten r = (r1, r2) är sådan att r1 är strikt större än 2xmax-xmin och r2 är strikt större än 2αxmin −αxmax+ β, det finns en unik optimal μ-fördelning. Denna optimala μ-fördelning inkluderar ytterligheterna av fronten och för alla i = 1,..., μ Bevis. Från Eq. 4, r2 strikt större än d.v.s. r2 strikt större än 2αxmin − αxmax + β, säkerställer närvaron av xmin i optimala μ-fördelningar som ger x μ i = xmin för i = 1. Från Eq. 5, r1 strikt större än sup x på]x min,xmax] x + αx+β-αx min −β α, d.v.s. r1 strikt större än sup x på]x min,xmax] 2x-xmin = 2xmax-xmin, säkerställer närvaron av xmax i optimala μ-fördelningar och därmed x μ i = xmax för i = μ. Med samma argument som i Theorem 5 visar vi att optimala μ-fördelningar är unika, de lika avstånden mellan punkterna och därmed Eq. 7. Vad är det som händer? Som påpekades i början vet vi i allmänhet inte om optimala μ-fördelningar är unika eller inte. Teorem 5 och 6 är två inställningar där vi kan säkerställa unikheten. Förutom enkla fronter som den linjära är det svårt (förmodligen omöjligt) att bestämma exakt optimala μ-fördelningar. Men i detta avsnitt bestämmer vi fördelningen av punkter på godtyckliga fronter, när deras antal går till oändlighet. Dessa fördelningar kommer att karakteriseras i termer av densitet som kan användas för att approximera, för en ändlig μ, procent av poäng i ett visst segment av fronten. Dessutom gör det möjligt att på ett rigoröst sätt kvantifiera fördomarna hos hypervolymen med avseende på en viss front. Vårt huvudsakliga resultat, som anges i Theorem 7, är att densiteten är proportionell mot kvadratroten av negativa av derivatan av fronten. Även om resultaten i detta avsnitt håller för godtycklig Pareto frontformer som kan beskrivas med en kontinuerlig funktion g : x på [xmin, xmax] → g(x) (vänster diagram av Bild. 5 ), kommer vi, utan förlust av allmängiltighet, endast att överväga fronter f : x på [0, xmax] → f (x) med f (xmax) = 0. Anledningen är att en godtycklig frontform g(x) enkelt kan omvandlas till den senare typen genom att översätta den, dvs. genom att införa ett nytt koordinatsystem x = x − xmin och y = y − g(xmax) med y = f (x ) som beskriver fronten i det nya koordinatsystemet (höger diagram av Bild. 5).................................................................. Denna översättning påverkar inte hypervolymindikatorn som beräknas i förhållande till (även översatt) referenspunkten r = (r1 − xmin, r2 − g(xmax)). Förutom att anta att f är kontinuerlig inom hela domänen [0, xmax], antar vi att f är differentiable och att dess derivat är en kontinuerlig funktion f definieras i intervallet ]0, xmax[. För ett visst antal punkter μ, som senare kommer att gå till oändligheten, skulle vi vilja beräkna optimala μ-fördelningar, dvs. positionerna för μ-punkter (x f (x)dx av konstant värde (lägre vänster tomt i Bild. 6 ), Vi ser att minimering (8) är likvärdigt med maximering av hypervolym indikator Vi antar att sekvensen konvergerar-när μ går till ∞-till en densitet δ(x) som är regelbunden nog. Formellt definieras densiteten i x till [0, xmax] som gränsen för antalet punkter som ingår i ett litet intervall [x, x + h[ normaliseras av det totala antalet punkter μ när båda μ går till ∞ och h till 0, dvs., I följande, Vi vill karakterisera densiteten i samband med punkterna x μ 1,. .., x μ som maximerar hypervolym indikator. Som diskuterats ovan är maximering av hypervolym lika med minimering av Eq. 8. Vad är det som händer? Vi hävdar här att för ett fast antal punkter μ, minimering är också likvärdigt med att maximera hypervolym sådan att vi antar att likvärdigheten mellan minimering Eμ och maximering hypervolym också innehar för μ gå till oändlighet. Vi nu heuristically härleda 2 att gränsen densitet av Eq. 9 kommer att minimera gränsen för Eμ i Eq. - Tio. - Vad är det för fel på dig? Därför, vårt bevis består av två steg: (1) beräkna gränsen för Eμ när μ går till ∞. Denna gräns kommer att vara en funktion av en densitet δ. (2) Hitta den densitet som minimerar E(δ) := limμ→∞ Eμ. Det första steget består därför i att beräkna gränsen för Eμ. Låt oss först påminna oss några definitioner från integrationsteorin. En funktion g : [0, xmax] → R sägs vara integrerbar om xmax 0 på g (x) eller dx är ändlig (vanligtvis betecknad xmax 0 på g (x) eller dx < +∞). Den uppsättning funktioner g som är integrable är en (Banach) vektor utrymme betecknar L 1 (0, xmax). En annan Banach vektorutrymme är den uppsättning funktioner vars kvadrat är i L 1 (0, xmax), detta utrymme betecknas L 2 (0, xmax). Från Cauchy-Schwarz ojämlikhet, Heuristically deduce" betyder, vi kan inte bevisa det helt rigoröst. Detta skulle innebära funktionella analyskoncept som ligger långt utanför tillämpningsområdet för detta dokument. 3 Den Cauchy-Schwarz ojämlikhet anger att ( g 2 ) och därmed sätta g = 1, För läsbarhetens skull, bevis på föregående lemma, samt följande har skickats i bilagan. Observera att antagandet i Eq. 11 karakteriserar konvergensen av μ pekar till densiteten och behövs i beviset. Som tidigare förklarats minimerar gränstätheten för en optimal μ-fördelning E(δ). Det återstår därför att finna att densiteten minimerar E(δ). Detta optimeringsproblem finns i ett funktionellt utrymme, Banach utrymme L 2 (0, xmax) och är också ett hinder problem eftersom densiteten δ måste tillfredsställa begränsningen Begränsning optimering problem (P) som behöver lösas sammanfattas i: Anmärkning 1. För att få densiteten δF för punkter av fronten (x, f (x)) x på [0,xmax] och inte på projektionen på x-axeln, måste man normalisera föregående resultat genom normen av tangenten för punkter av fronten, dvs, 1 + f (x) 2. Därför är densiteten på framsidan proportionell mot: Som vi har sett följer densiteten som en gräns på grund av det faktum att arean mellan uppnåelsefunktionen hos lösningen inställd med μ-punkter och själva fronten (lägre högra diagram av Bild. 6 ) måste minimeras och en optimal μ-fördelning för finita punkter konvergerar till densiteten när μ ökar. Av detta följer också att antalet punkter för en optimal μ-fördelning med x-värden inom ett visst intervall [a, b] konvergerar till b a δ(x)dx om μ går till oändligheten. I nästa avsnitt kommer vi att visa experimentellt att densiteten kan användas som en approximation av optimala μ-fördelningar inte bara för en stor μ utan också för ett relativt litet antal punkter. Förutom att plotta densiteten för att förstå fördomarna i hypervolymindikatorn för specifika fronter, ger resultaten ovan också en mer allmän förklaring om hypervolymindikatorn. Från Theorem 7, vi vet att densiteten av punkter bara beror på lutningen av fronten och inte på om fronten är konvex eller konkava i motsats till utbredd tro [26, 18]. densitet och lutningen av fronten. Vi observerar att densiteten har sitt maximum för främre delar där tangenten har en lutning på -45 •. Därför optimerar hypervolym indikatorn betonar så kallade knä-punkter-delar av Pareto front beslutsfattare anser att vara intressanta regioner [5, 4, 6]. Extrema punkter är i allmänhet inte att föredra som hävdas i [7], eftersom densiteten av punkter inte beror på läget på framsidan utan bara på lutningen på respektive punkt. Lutningen varierar för olika platser på framsidan utom för det linjära fallet, så gör avståndet mellan punkter. Fördelningen av poäng kan därför skilja sig mycket från en väldistribuerad uppsättning punkter som föreslås i [16]. Genom att härleda densiteten hos punkter kunde vi undersöka fördomarna hos hypervolymen i allmänhet som vi har sett i föregående avsnitt, men frågan kvarstår vad som händer för en ändlig, särskilt ett litet antal punkter. För att besvara denna fråga genomför vi en experimentell studie med hjälp av två lokala sökstrategier för att approximera optimala μ-fördelningar för finita μ. Dessa sökstrategier tjänar till att (i) undersöka optimala μ-fördelningar för små μ på olika välkända testproblem och (ii) visar att optimala μ-fördelningar kan approximeras tillräckligt noggrant av densiteten redan för ganska små μ. Algoritmer för att hitta optimala μ-fördelningar. För att hitta en approximation av en optimal fördelning av μ-punkter, ges av deras x-värden (x μ 1,. .., x μ ), föreslår vi en enkel kulle klättrare (Algoritm 1) baserat på Eq. 3. Vad är det som händer? Den börjar med en första distribution som följer distributionsfunktionen i Theorem 7 (linje 2). En sådan fördelning erhålls genom att säkerställa att den kumulerade densiteten mellan två angränsande punkter är konstant. Dessutom läggs de två punkterna x μ 0 = xmin med f (x μ 0 ) = r2 och x μ+1 = r1 till för att förenkla slutet medan 12: avkastning (x μ 1,. .., x μ ) 13: avsluta förfarandet hanteringen av de extrema punkter. Den resulterande fördelningen av punkter följer densitet funktion av Theorem 7 med alla punkter i ordning från vänster till höger, dvs x Efter att punkterna har initierats, bidraget till hypervolym maximeras för alla punkter successivt genom att placera varje punkt enligt Eq. 3 (linjerna 6 till 8). Detta säkerställer att antingen hypervolym ökas i det aktuella steget eller motsvarande punkt redan placeras optimalt med avseende på sina grannar. Eftersom en ändring av positionen för en punkt kan ändra andra punkter som tidigare ansågs vara optimalt placerade för att vara suboptimalt placerade, upprepas förfarandet så länge förbättringen av hypervolymindikatorn är större än en användardefinierad tröskel ε (vanligtvis precisionen i programimplementeringen). Tyvärr, den optimala positionen för x μ i enligt Eq. 3 kan inte bestämmas analytiskt för vissa testproblem, t.ex. DTLZ2 [8]. I dessa fall används en modifierad version av bergsklättringsproceduren (se Algoritm 2). Efter att ha skapat en första fördelning av punkter som i Algoritm 1 (Line 2), ändras positionen för varje punkt igen separat en efter en. Men i motsats till Algoritm 1, bestäms en ny position x μ i slumpmässigt genom att lägga till ett Gaussiskt distribuerat värde centrerat kring det tidigare värdet. Inledningsvis, variansen σ 2 av denna slumpmässiga variabel är inställd på ett stort värde sådan att stora förändringar försöks. För icke-kontinuerliga frontformer (som DTLZ7 [8]) är punktens läge alternativt inställt på något värde mellan xmin och xmax. Detta möjliggör hopp av punkter till olika delar av fronten även i det senare skedet av algoritmerna. X-värdet x μ i sätts till den nya positionen x i μ och den nuvarande hypervolym v gamla uppdateras till v endast om hypervolymindikatorn ökar; annars kastas den ändrade positionen (linjerna 16–20). Om för ingen punkt en förbättring av hypervolym kunde realiseras, variansen σ 2 minskas med 5%. Så snart variansen är mindre än ε (definierad som i Algoritm 1), den aktuella fördelningen (x μ 1,. .., x μ ) returneras. Observera att båda de presenterade algoritmerna inte garanterar att hitta optimala μ-fördelningar. De experiment som presenteras i följande visar dock att de punktfördelningar som hittas av de två algoritmerna konvergerar till densiteten om μ går till oändligheten som optimala μ-fördelningar teoretiskt konvergerar till densiteten. Testa algoritmerna med hjälp av flera slumpmässiga initiala distributioner istället för enligt Eq. 14 inom funktionen InitialDist(·) i båda algoritmerna medan σ > ε do 6: förbättring ← false 7: J ← antingen 0 eller 1 (med prob. 1/2 var) 10: om J är 1 då 11: alltid leda till samma slutliga fördelning, även om konvergensen visade sig vara långsammare. Detta är en stark indikator på att de distributioner som finns verkligen är bra approximationer av den optimala fördelningen av μ-punkter. Vi vill också nämna att varje allmän sökheuristisk, t.ex. en evolutionsstrategi, skulle kunna användas för att approximera optimala μ-fördelningar. I inledande experiment till exempel använde vi CMA-ES [12] för att härleda optimala μ-fördelningar. Det visade sig att de problemspecifika algoritmerna är mycket snabbare än CMA-ES. Även när representationen används som ett tvådimensionellt problem (se Sec. 3), CMA-ES behövde signifikant mer tid än algoritmerna 1 och 2 för att härleda liknande hypervolymvärden. De distributioner som CMA-ES har funnit överensstämmer dock med de distributioner som Algoritm 1 och Algoritm 2 har funnit. Tillnärmning av optimala μ-fördelningar. Med hjälp av de algoritmer som föreslås ovan undersöker vi nu optimala μ-fördelningar för konkreta testproblem där Paretos fronter är kända. Figur 8 visar den bästa μ-distributionen för testproblemen i ZDT [24] och DTLZ [8] testfunktionssviter som är exemplariska för μ = 50 fler resultat finns på den kompletterande webbsidan http://www. tik.ee.ethz.ch/sop/muDistributioner. Dessutom ger tabell 2 motsvarande frontformer och härledda densiteter. De optimala μ-distributionerna för ZDT1, ZDT2 och DTLZ1 har approximatiserats med Algoritm 1, medan μ-distributionerna för ZDT3, DTLZ2 och DTLZ7 har beräknats med Algoritm 2 eftersom Eq. 3 kan inte lösas analytiskt eller så är fronten inte kontinuerlig. Referenspunkten har satts till (15, 15) så att de extrema punkterna finns i optimala μ-fördelningar om möjligt. De experimentellt härledda optimala μ-distributionerna för μ = 50 visar kvalitativt samma resultat som den teoretiskt förutsagda densiteten: fler punkter kan hittas i främre regioner som har en gradient på −45 •, frontdelar som har en mycket hög eller mycket låg gradient är mindre trånga. Dessutom kan liksidiga resultat för linjära fronter (teoremorna 5 och 6) observeras för den linjära DTLZ1-fronten. Konvergens mot densiteten. Från Avsnitt 6 vet vi att den empiriska densiteten i samband med optimala μ-fördelningar, d.v.s. den normaliserade histogrammet, konvergerar till densiteten när μ går till oändligheten och därför att gränstätheten i Theorem 7 approximerar den normaliserade histogrammet. Här undersöker vi experimentellt kvaliteten på approximationen. I detta syfte beräknar vi approximationer av den optimala μ-distributionen exemplariskt för ZDT2-problemet för μ = 10, μ = 100 och μ = 1 000 som erhålls med Algoritm 1. Referenspunkten har fastställts till (15, 15) som tidigare. Figur 9 visar både den experimentellt observerade histogrammet för μ-punkterna på framsidan och jämförelsen mellan den teoretiskt härledda densiteten och den erhållna experimentella approximationen av denna. Genom visuell inspektion ser vi att det histogram som är förknippat med de funna μ-distributionerna snabbt konvergerar till densiteten och att den teoretiskt härledda densiteten för μ = 1, 000 punkter redan ger en tillräcklig beskrivning av den finita optimala μ-distributionen. Denna studie ger rigorösa resultat på frågan om hur optimala Pareto front approximationer av ändlig storlek μ ser ut när hypervolym indikator maximeras. Mest förvånande kan vara det faktum att hypervolym indikatorn är okänslig för hur fronten är böjning (konvex eller konkava) som motsäger tidigare antaganden [27, 18]. Som vi visar är det inte själva frontformen utan endast frontens lutning som avgör fördelningen av punkter på fronten. Detta innebär att vid optimering av den standardiserade hypervolymindikatorn kan en jämnt fördelad lösningssats erhållas om och endast om den främre formen är en rak linje. Dessutom kan frågan om hur man väljer referenspunkten för att få extrema fronter, som förblir olösta i flera år, nu besvaras med våra teoretiska resultat. Den tydliga nedre gränsen i våra teorem kommer förhoppningsvis att hjälpa utövare. Även om de resultat som presenteras här endast gäller två mål antar vi att de generaliseras till ett godtyckligt antal mål. Utvidgningen av det föreslagna matematiska ramverket är föremål för framtida forskning. | Istället för att använda området under kurvan för att kondensera flera punkter, använder hypervolym metrisk den mer allmänna begreppet hypervolym under grenrör för detta mål REF. | 114,435 | Theory of the hypervolume indicator: optimal μ-distributions and the choice of the reference point | {'venue': "FOGA '09", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,971 |
Crowdsourcing är ett populärt paradigm för effektiv insamling av etiketter till låga kostnader. DawidSkene-skattaren har i stor utsträckning använts för att dra slutsatsen om de verkliga etiketterna från de bullriga etiketterna som tillhandahålls av icke-experter crowdsourcing-arbetare. Men eftersom estimatorn maximerar en icke-konvex loglikelihood-funktion, är det svårt att teoretiskt motivera dess prestanda. I detta dokument föreslår vi en tvåstegs effektiv algoritm för multi-class crowd labeling problem. Det första steget använder spektralmetoden för att få en första uppskattning av parametrar. Därefter förfinar det andra steget uppskattningen genom att optimera den objektiva funktionen hos Dawid-Skene estimator via EM-algoritmen. Vi visar att vår algoritm uppnår optimal konvergenshastighet upp till en logaritmisk faktor. Vi utför omfattande experiment på syntetiska och verkliga dataset. Experimentella resultat visar att den föreslagna algoritmen är jämförbar med den mest korrekta empiriska metoden, samtidigt som den överträffar flera andra nyligen föreslagna metoder. | I Ref föreslogs en tvåstegsalgoritm som använder spektralmetoder för att kompensera begränsningarna för DS för att uppnå konvergens med nära optimal hastighet. | 2,670,430 | Spectral Methods meet EM: A Provably Optimal Algorithm for Crowdsourcing | {'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,972 |
Hälso- och sjukvård är en av de mest spännande gränserna inom datautvinning och maskininlärning. Framgångsrikt införande av elektroniska patientjournaler skapade en explosion av digitala kliniska data som är tillgängliga för analys, men framstegen inom maskininlärning för hälso- och sjukvårdsforskning har varit svåra att mäta på grund av avsaknaden av allmänt tillgängliga referensdatauppsättningar. För att ta itu med detta problem föreslår vi fyra kliniska prognosriktmärken med hjälp av data från den allmänt tillgängliga databasen Medical Information Mart for Intensive Care (MIMIC-III). Dessa uppgifter omfattar en rad kliniska problem, inklusive modelleringsrisk för dödlighet, prognostiserad vistelselängd, upptäckt fysiologisk nedgång och fenotypklassikatjon. Vi formulerar ett heterogent multitask-problem där målet är att gemensamt lära sig flera kliniskt relevanta förutsägelser utifrån samma tidsseriedata. För att lösa detta problem, föreslår vi en ny återkommande neurala nätverk (RNN) arkitektur som utnyttjar sambanden mellan de olika uppgifterna för att lära sig en bättre prediktiv modell. Vi validerar den föreslagna neurala arkitekturen på detta riktmärke, och visar att det överträffar starka baslinjer, inklusive enstaka RNN-uppgift. Referensformat för ACM: | Harutyunyan m.fl. I REF föreslogs ett lättanvänt referenssystem för medicinska data som bygger på den medicinska informationsmart för intensivvård (MIMIC-III). | 14,502,739 | Multitask Learning and Benchmarking with Clinical Time Series Data | {'venue': 'Scientific Data 6 (2019) 96', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Biology', 'Mathematics', 'Medicine']} | 3,973 |
Abstrakt. Den snabba utvecklingen av tekniker som Grid computing, peer-to-peer nätverk, Web Services för att nämna några, erbjuda företag och organisationer en öppen och decentraliserad miljö för dynamisk resursdelning och integration. Globus verktygslåda framträdde som det viktigaste resursdelningsverktyget som används i Grid-miljön. Åtkomstkontroll och hantering av åtkomsträttigheter blir en av de största flaskhalsarna när man använder Globus eftersom det i en sådan miljö finns potentiellt obegränsat antal användare och resursleverantörer utan på förhand etablerade förtroenderelationer. Således, Grid beräkningsresurser skulle kunna utföras av okända program som körs på uppdrag av misstrogna användare och därför måste integriteten för dessa resurser garanteras. För att ta itu med detta problem föreslår dokumentet ett system för åtkomstkontroll som förbättrar Globus verktygslåda med ett antal funktioner: (i) finkornig beteendekontroll; (ii) hantering på applikationsnivå av användarens referenser för åtkomstkontroll; (iii) fullfjädrad integration med X.509 certifikatstandard; (iv) åtkomstkontroll återkoppling när användare inte har tillräckligt med behörigheter. | Koshutanski m.fl. REF presenterar ett passerkontrollsystem som förbättrar Globus verktygslådas standardstöd. | 18,787,418 | A Fine-Grained and X.509-Based Access Control System for Globus | {'venue': 'OTM Conferences (2)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,974 |
Bakgrund: Saknade värden är vanligt förekommande i microarray dataprofiler. I stället för att kasta gener eller prover med ofullständig uttrycksnivå, saknade värden måste tillskrivas korrekt för korrekt dataanalys. Imputationsmetoderna kan grovt kategoriseras som uttrycksnivåbaserade och domänkunskapsbaserade. Den första typen av metoder bygger endast på expressionsdata utan hjälp av externa datakällor, medan den andra typen införlivar tillgänglig domänkunskap i expressionsdata för att förbättra imputationnoggrannheten. Under de senaste åren har mikroRNA (miRNA) mikroarray till stor del utvecklats och använts för att identifiera miRNA biomarkörer i komplexa humansjukdomsstudier. Liknar mRNA profiler, miRNA uttryck profiler med saknade värden kan behandlas med de befintliga imputation metoder. Dock, domänen kunskapsbaserade metoder är svåra att tillämpa på grund av bristen på direkt funktionell annotation för miRNAs. Med den snabba ackumulationen av miRNA microarray data, är det allt mer nödvändigt att utveckla domänkunskap-baserade imputation algoritmer specifika för miRNA uttryck profiler för att förbättra kvaliteten på miRNA dataanalys. Resultat: Vi kopplar miRNAs med domänkunskap av Gene Ontology (GO) via deras målgener, och definiera miRNA funktionell likhet baserat på den semantiska likheten av GO termer i GO grafer. Ett nytt mått som kombinerar miRNA funktionell likhet och uttryck likhet används i imputeringen av saknade värden. Det nya måttet testas på två miRNA mikroarray dataset från bröstcancerforskning och uppnår förbättrad prestanda jämfört med den uttrycksbaserade metoden på båda dataseten. Slutsatser: De experimentella resultaten visar att den biologiska domänkunskapen kan gynna uppskattningen av saknade värden i miRNA-profiler såväl som mRNA-profiler. Speciellt, funktionell likhet definieras av GO termer kommenterade för målgener av miRNAs kan vara användbar kompletterande information för uttryck-baserad metod för att förbättra imputation noggrannheten av miRNA array data. Vår metod och våra data är tillgängliga för allmänheten på begäran. Saknade värden förekommer ofta i mikroarraydata på grund av olika orsaker, såsom begränsningen av detektionskänslighet, kontaminering eller fel som induceras vid experimentella operationer, och olämplig förbehandling av data. För | Yang m.fl. REF presenterar en lösning till saknade värden i microarray data profiler, genom att ansluta microRNA (miRNA) med gen ontology till miRNA-riktade gener. | 9,443,873 | Missing value imputation for microRNA expression data by using a GO-based similarity measure | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']} | 3,975 |
MapReduce har använts i stor skala för dataanalys i molnet. Systemet är väl känt för sin elastiska skalbarhet och finkorniga feltolerans även om dess prestanda har noterats vara suboptimal i databassammanhang. Enligt en nyligen genomförd studie [19] är Hadoop, en öppen källkodsimplementering av MapReduce, långsammare än två toppmoderna parallella databassystem när det gäller att utföra en mängd olika analytiska uppgifter med en faktor 3.1 till 6.5. MapReduce kan uppnå bättre prestanda med tilldelning av mer beräkna noder från molnet för att påskynda beräkning; dock är detta tillvägagångssätt att "hyra fler noder" inte kostnadseffektivt i en pay-as-you-go miljö. Användarna vill ha ett ekonomiskt elastiskt skalbart databehandlingssystem och är därför intresserade av om MapReduce kan erbjuda både elastisk skalbarhet och effektivitet. I detta dokument genomför vi en prestandastudie av MapReduce (Hadoop) på en 100-node kluster av Amazon EC2 med olika nivåer av parallellism. Vi identifierar fem designfaktorer som påverkar Hadoops prestanda och undersöker alternativa men kända metoder för varje faktor. Vi visar att genom att noggrant justera dessa faktorer kan Hadoops totala prestanda förbättras med en faktor på 2,5 till 3,5 för samma referensvärde som användes i [19], och är därmed mer jämförbar med den för parallella databassystem. Våra resultat visar att det därför är möjligt att bygga ett molndatasystem som är både elastiskt skalbart och effektivt. | Experiment som utförs på Amazon EC2 visar att en korrekt MapReduce-implementering kan uppnå en prestanda som ligger nära parallella databaser. | 186,987 | The Performance of MapReduce: An In-depth Study | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 3,976 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.