src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstrakt. Kortdistanskommunikation, punkt-till-punkt-kommunikation för mobila användare har ökad popularitet, särskilt med ökningen av Bluetooth-utrustade mobila enheter. Tyvärr har virus författare börjat utnyttja slapp säkerhet i många mobila enheter och därefter utvecklat malware utnyttjar närhetsbaserade spridningsmekanismer (t.ex. Cabir eller CommWarrior). Så, om ett ad-hoc nätverk av sådana mobila användare, kommer en närhet spridning virus överleva eller dö ut; det vill säga, kan vi bestämma "tipping point" mellan överlevnad och dö ut? Vilken effekt har den genomsnittliga användarhastigheten på sådan spridning? Vi svarar på de inledande frågorna och mycket mer. Våra bidrag i detta dokument är: a) vi presenterar en ram för analys av epidemiska spridningsprocesser på mobila ad hoc-nätverk, b) med hjälp av vårt ramverk, vi är de första som får fram epidemitröskeln för alla rörlighetsmodeller enligt SIS-modellen, och c) vi visar att nodhastigheten i rörlighetsmodeller inte påverkar epidemitröskeln. Dessutom inför vi en periodisk rörlighetsmodell och tillhandahåller utvärdering via vårt ramverk. Vi validerar våra teoretiska förutsägelser med hjälp av en kombination av verkliga, syntetiska och simulerade mobilitetsdata, som i slutändan visar att våra förutsägelser exakt uppskattar epidemitröskeln för sådana system.
När det gäller rörlighet inom ett 2D-fält, Valler m.fl. REF analyserade epidemitröskeln för ett mobilt ad hoc-nät.
15,816,955
Epidemic Spread in Mobile Ad Hoc Networks Determining the Tipping Point
{'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,916
Urval i 3D virtuella miljöer kan variera kraftigt beroende på sammanhanget för valet. Olika scenattribut såsom objekthastighet och scentäthet kommer sannolikt att påverka användarens förmåga att exakt välja ett objekt. Även om det finns många befintliga 3D-val tekniker som har studerats väl, de alla tenderar att skräddarsys för att fungera bäst i en viss uppsättning av villkor, och kan inte prestera bra när dessa villkor inte är uppfyllda. Som ett resultat av detta måste designers kompromissa genom att ta en helhetssyn på valet av en primär teknik; en som fungerar bra överlag, men eventuellt saknas i åtminstone ett scenario. Vi presenterar ett programvaruramverk som möjliggör en flexibel metod för att utnyttja flera urvalstekniker, där var och en presterar väl under vissa förhållanden. Från dessa används den bästa vid varje givet tillfälle för att ge användaren en optimal urvalsupplevelse över fler scenarier och förhållanden. Vi utförde en användarstudie som jämförde vårt ramverk med två gemensamma 3D-urvalstekniker, Bendcast och Expand. Vi utvärderade teknikerna över tre nivåer av scentäthet och tre nivåer av objekthastighet, samla in noggrannhet och timing data över ett stort urval av deltagare. Av våra resultat kunde vi dra slutsatsen att vår självvalsteknik är lovande, men det finns flera egenskaper hos självvalsprocessen som kan medföra nackdelar som måste åtgärdas och minimeras.
Kassan m.fl. REF skapade ett automatiskt select-ramverk som innehåller tekniker: Bendcast och Expand väljer den mest optimala tekniken i en given situation.
9,268,765
Optimal 3D selection technique assignment using real-time contextual analysis
{'venue': '2013 IEEE Symposium on 3D User Interfaces (3DUI)', 'journal': '2013 IEEE Symposium on 3D User Interfaces (3DUI)', 'mag_field_of_study': ['Computer Science']}
11,917
Abstract-publicerade kvalitetsmodeller för programvara ger antingen abstrakta kvalitetsattribut eller konkreta kvalitetsbedömningar. Det finns inga modeller som sömlöst integrerar båda aspekterna. I projektet Quamoco har vi byggt upp ett helhetsgrepp i syfte att överbrygga denna klyfta. För detta utvecklade vi i flera iterationer en metakvalitetsmodell som specificerar allmänna begrepp, en kvalitetsbasmodell som täcker de viktigaste kvalitetsfaktorerna och en kvalitetsbedömningsmetod. Metamodellen introducerar det nya konceptet med en produktfaktor, som överbryggar klyftan mellan betongmätningar och abstrakta kvalitetsaspekter. Produktfaktorer har mått och instrument för att driftsätta kvalitet genom mätningar från manuell inspektion och verktygsanalys. Basmodellen använder kvalitetsattributen ISO 25010, som vi förfinar med 200 faktorer och 600 åtgärder för Java- och C#-system. Vi fann i flera empiriska valideringar att bedömningsresultaten stämmer överens med experternas förväntningar på motsvarande system. De empiriska analyserna visade också att flera av korrelationerna är statistiskt signifikanta och att underhållsdelen av basmodellen har den högsta korrelationen, vilket stämmer överens med att denna del är den mest omfattande. Även om vi fortfarande ser utrymme för att utvidga och förbättra grundmodellen, visar den en hög överensstämmelse med expertutlåtanden och kan därför utgöra grunden för repeterbara och begripliga kvalitetsbedömningar i praktiken.
Dessutom får vår designkvalitetsmodell större flexibilitet genom tillämpningen av Quamoco-metamodellen för kvalitetsmodeller REF.
9,693,637
The Quamoco Product Quality Modelling and Assessment Approach
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,918
Vi analyserar konvergenshastigheter av stokastiska optimeringsförfaranden för icke-smooth konvexa optimeringsproblem. Genom att kombinera randomiserade utjämningsmetoder med accelererade gradientmetoder, får vi konvergenshastigheter av stokastiska optimeringsmetoder, både i förväntan och med hög sannolikhet, som har optimalt beroende av variansen av gradientuppskattningar. Såvitt vi vet är dessa de första variansbaserade hastigheterna för icke-smooth optimering. Vi ger flera tillämpningar av våra resultat till statistiska skattningsproblem, och ger experimentella resultat som visar effektiviteten av de föreslagna algoritmerna. Vi beskriver också hur en kombination av vår algoritm med det senaste arbetet med decentraliserad optimering ger en distribuerad stokastisk optimeringsalgoritm som är orderoptimal.
Till exempel, utjämning en nonsmooth konvex objektiv funktion genom konvolution kan förbättra konvergensen av stokastiska optimeringsalgoritmer REF.
1,182,594
Randomized Smoothing for Stochastic Optimization
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,919
ABSTRACT Trådlösa sensornätverk lider av vissa begränsningar såsom energibegränsningar och de kooperativa krav som krävs för att utföra multi-hop geografiska routing för sakernas internet (IoT) applikationer. Kvaliteten på tjänsten (QoS) beror till stor del på att erbjuda deltagande noder ett incitament för samarbete. Detta dokument presenterar en matematisk modell för en ny generation av forwarding QoS routing bestämning som gör det möjligt att allokera optimal väg för att uppfylla QoS parametrar för att stödja ett brett utbud av kommunikationsintensiva IoT-tillämpningar. Modellen används för att undersöka effekterna av multi-hop kommunikation på en trafiksystemmodell utformad med en Markov diskret-tid M /M /1 kömodell, tillämplig på grön distribution av duty-cycle sensor noder. Vi presenterar analytisk formulering för bitterror-rate, och en kritisk väg-förlust modell definieras till den specificerade nivån av förtroende bland de mest använda noderna. Dessutom tar vi upp graden av oegentlighetsparameter för att främja anpassning till geografiska byten med avseende på två kategorier av överföring i distribuerade system: hop-by-hop och end-to-end retransmission system. Simuleringarna identifierade resultat för den genomsnittliga paketfördröjningstransmissionen, energiförbrukningen för transmissionen och genomströmningen. Simuleringarna ger insikter i effekterna av radiooegentlighet på granne-upptäckt routing teknik av båda systemen. Baserat på simuleringsresultaten, meddelandena kodade med non-return-to-noll har mer grön effektivitet över multihop IoT (utan förlust av anslutning mellan noder) än de kodade med Manchester-operationen. De resultat som presenteras i detta dokument är till stor hjälp för designers av sakernas internet. INDEX TERMS Trådlösa sensornätverk, servicekvalitet, sakernas Internet, geografisk routing, euclidean avstånd, nätverk topologi.
Undersöka effekterna av multi-hop kommunikation på en trafiksystemmodell utformad med en Markov diskret-time M/M/1 kö modell, i REF, Hasan et al. presenterade en matematisk modell för en ny generation av forwarding QoS routing-bestämning som gjorde det möjligt att allokera optimal väg för att uppfylla QoS-parametrar.
5,050,565
Analysis of Cross-Layer Design of Quality-of-Service Forward Geographic Wireless Sensor Network Routing Strategies in Green Internet of Things
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
11,920
Detta papper analyserar en framväxande arkitektur av cellulära nätverk som utnyttjar både plana basstationer jämnt fördelade i Euclidean planet och basstationer belägna på vägar. Ett exempel på denna arkitektur är att fordon, förutom konventionella planara cellulära basstationer och användare, också spelar rollen av både basstationer och användare. En Poisson linje process används för att modellera vägnätet och, villkorat på linjerna, linjära Poisson punkt processer används för att modellera fordonen på vägarna. De konventionella planar basstationer och användare modelleras av de oberoende planar Poisson punktprocesserna. Vi använder Palm kalkyl för att undersöka statistiska egenskaper hos en typisk användare i ett sådant nätverk. I detta dokument diskuteras två olika Palm distributioner, med avseende på användarpunkt processer beroende på dess typ: planar eller vehicular. Vi härleder avståndet till närmaste basstation, associationen av de typiska användarna, och täckningsannolikheten för den typiska användaren. Dessutom ger vi en omfattande karakterisering av täckningen av alla möjliga cellulära sändningar i denna miljö, nämligen fordon-till-fordon, fordon-till-infrastruktur, infrastruktur-till-fordon och infrastruktur-till-infrastruktur.
I synnerhet, REF härledde SINR-distributionen av alla befintliga typiska par i sådana nät: länkar från fordonsbasstationer till fordonsanvändare, från fordonsbasstationer till plana användare, från plana basstationer till plana användare och från plana basstationer till fordonsanvändare.
28,599,073
An Analytical Framework for Coverage in Cellular Networks Leveraging Vehicles
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,921
Vi studerar en grupp mobila agenter som arbetar med ett godtyckligt okänt distribuerat system. En av noderna i det distribuerade systemet är extremt skadligt och förstör alla inkommande agent utan anmälan. Uppgiften att utforska det distribuerade systemet och lokalisera den skadliga noden, Black hole sökning, har studerats med olika modifikationer. Vi studerar effekterna av kunskapen om inkommande länk på storleken på den optimala lösningen. När en agent går in i en nod, kan den information vilken port leder tillbaka ges till den. Vi hänvisar till detta som kunskap om inkommande länk. I tidigare forskning antogs det alltid att agenten får denna information. I detta dokument studerar vi godtyckliga, okända distribuerade system utan kunskap om inkommande länk. Agenter är asynkrona och de kommunicerar via whiteboards. Vi presenterar en lägre gräns på storleken på den optimala lösningen, vilket visar att minst 2 + till 2 + 1 agenter är nödvändiga för att lokalisera det svarta hålet. Vi tillhandahåller en algoritm för svart hål sökning utan kunskap om inkommande länk också. Vi bevisar att den här algoritmen är korrekt, och att den använder 2 + på 2 + 1 agenter, vilket ger optimal lösning.
I REF har effekterna av kunskap om inkommande länk studerats på den optimala teamstorleken och lägre gränser tillhandahållits.
5,678,260
Locating a Black Hole without the Knowledge of Incoming Link
{'venue': 'ALGOSENSORS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,922
Problemet med att rangordna en uppsättning objekt är en grundläggande algoritmisk uppgift i dagens datadrivna värld, och har fått stor uppmärksamhet inom datavetenskap. Rankningsalgoritmer ligger i kärnan av applikationer som sökmotorer, nyhetsflöden och rekommendationssystem. Flera händelser på senare tid har dock pekat på att algoritmiska fördomar i rangordningar, som resulterar i minskad rättvisa eller mångfald i den typ av innehåll som presenteras, kan främja stereotyper och sprida orättvisor. Motiverade av sådana verkliga tillämpningar inleder vi i detta dokument en studie av det traditionella rankningsproblemet med ytterligare krav på rättvisa. Med tanke på en samling av objekt tillsammans med 1) värdet av att placera en post på en viss position, 2) insamling av eventuellt icke-skiljaktiga attribut (t.ex. kön, ålder, ras) för varje post och 3) en samling rättvisa begränsningar som övre gräns för antalet objekt med varje attribut som tillåts visas i de högsta positionerna i rangordningen, målet är att producera en ranking som maximerar värdet samtidigt som begränsningarna respekteras. Detta problem inkapslar olika välstuderade problem relaterade till bipartit och hypergraph matchning som specialfall och visar sig vara svårt att approximera även med enkla begränsningar. Våra viktigaste tekniska bidrag är exakta och approximationsalgoritmer tillsammans med kompletterande hårdhetsresultat som tillsammans är nära att lösa det begränsade rankningsmaximeringsproblemets approximabilitet. Vi identifierar en parameter - det maximala antalet egenskaper något objekt har - och visar att å ena sidan när till = 1, det finns en snabb algoritm för att lösa problemet exakt, men å andra sidan när till ≥ 3, problemet är svårt att approximera, och vi presenterar en nära-optimal O ( ska) - approximation algoritm för problemet under milda antaganden. Till skillnad från tidigare arbete på tillnärmningen av begränsade matchningsproblem, vår algoritm är polynom tid, även när antalet begränsningar är stort (polynomiskt många), dess approximation beror inte på antalet begränsningar, och det producerar lösningar med små begränsningar överträdelser. Tekniskt sett är våra huvudsakliga resultat beroende av nya insikter om standard linjär programmeringsavkoppling för det begränsade matchningsproblemet när den objektiva funktionen uppfyller vissa egenskaper som visas i gemensamma rankningsmått såsom diskonterad kumulativ vinst (DCG), Spearmans rho eller Bradley-Terry, tillsammans med den bofasta strukturen av rättvisa begränsningar. Sammantaget bidrar våra resultat till den växande uppsättningen algoritmer som kan motverka algoritmiska förutfattade meningar, och de strukturella insikter som erhålls kan användas i andra algoritmiska sammanhang relaterade till rankingproblem.
Celis m.fl. REF presenterar en teoretisk undersökning av beräkning av rättvis rankning med begränsningar av högsta och lägsta antal element som har ett attributvärde som kan förekomma vid varje rankning.
14,227,592
Ranking with Fairness Constraints
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,923
Abstrakt. Vi formaliserar ett enkelt monteringsspråk med procedurer och en säkerhetspolicy för aritmetiskt överflöd i Isabelle/HOL. För att verifiera enskilda program använder vi en säkerhetslogik. En sådan logik kan förverkligas i Isabelle/HOL antingen som ytlig eller djup inbäddning. I en grund inbäddande logiska formler är skrivna som HOL predikat, medan en djup inbäddning modeller formler som en datatyp. I detta dokument presenteras och diskuteras båda varianterna som visar på deras specifika styrkor och svagheter.
Andra metoder för PCC använder logikbaserade verifieringsmetoder som möjliggörande teknik, ett exempel är REF som formaliserar ett enkelt monteringsspråk med procedurer och presenterar en säkerhetspolicy för aritmetiskt överflöde i Isabelle/HOL.
9,588,155
Certifying machine code safety: Shallow versus deep embedding
{'venue': 'IN TPHOLS, NUMBER 3223 IN LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,924
Abstrakt. I den globala webb- och mobildatorns tidsålder är programmeringscentrerad programvara av avgörande betydelse. Programmerare och programdesigners utsätts därför för nya komplexitetsnivåer, såsom att säkerställa en korrekt sammansättning av kommunikationsbeteenden och garantera att deras protokoll är låsta. Detta dokument föreslår språket L doos, ett enkelt distribuerat objekt-orienterat språk förstärkt med session kommunikation primitiver och typer. L doos ger en flexibel objektorienterad programmeringsstil för strukturella interaktionsprotokoll genom att förskriva kanalanvändning inom signaturer av distribuerade klasser. Vi utvecklar ett maskinskrivningssystem för L doos och bevisar dess sundhet med avseende på den operativa semantiken. Vi visar också att i ett välskrivet L doos-program, kommer det aldrig att finnas ett anslutningsfel, ett kommunikationsfel, eller en felaktig komplettering mellan server-klientinteraktioner. Dessa resultat visar att en konsekvent integrering av objektorienterade språkfunktioner och sessionstyper erbjuder en kompositionsmetod för att statiskt kontrollera säkerheten i kommunikationsprotokoll.
Vi utvecklade vår formalism utifrån tidigare erfarenheter med L doos REF, ett distribuerat objektorienterat språk med grundläggande sessionsfunktioner.
7,213,653
A Distributed Object-Oriented Language with Session Types
{'venue': 'TGC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,925
Motivering: Att identifiera läkemedelsinteraktioner är en kritisk process inom läkemedelsadministration och läkemedelsutveckling. Kliniska stödverktyg ger ofta omfattande förteckningar över DDI, men de saknar vanligtvis de stödjande vetenskapliga bevisen och olika verktyg kan returnera inkonsekventa resultat. I den här artikeln föreslår vi ett nytt tillvägagångssätt som integrerar textbrytning och automatiserade resonemang för att härleda DDI. Genom utvinning av olika fakta om läkemedelsmetabolism, inte bara de DDI som uttryckligen nämns i texten kan extraheras, men också de potentiella interaktioner som kan härledas genom resonemang. Resultat: Vår strategi kunde hitta flera potentiella DDI som inte finns i DrugBank. Vi utvärderade manuellt dessa interaktioner baserat på deras stödjande bevis, och vår analys visade att 81,3 % av dessa interaktioner är fast beslutna att vara korrekta. Detta tyder på att vår strategi kan avslöja potentiella DDI med vetenskapliga belägg som förklarar mekanismen för interaktioner.
Tari m.fl. REF föreslog ett nytt tillvägagångssätt som integrerar automatiserade resonemangstekniker och textbrytning ger nya enzymbaserade DDI från MEDLINE abstracts.
20,557
Discovering drug–drug interactions: a text-mining and reasoning approach based on properties of drug metabolism
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,926
Abstrakt. Att automatiskt tilldela sökord till bilder är av stort intresse eftersom det gör det möjligt att indexera, hämta och förstå stora samlingar av bilddata. Många tekniker har föreslagits för bildanmärkning under det senaste årtiondet som ger rimliga prestanda på standarddatauppsättningar. De flesta av dessa arbeten misslyckas dock med att jämföra sina metoder med enkla grundtekniker för att motivera behovet av komplexa modeller och efterföljande utbildning. I detta arbete introducerar vi en ny baslinjeteknik för bildnotering som behandlar kommentar som ett hämtningsproblem. Den föreslagna tekniken använder sig av bildfunktioner på låg nivå och en enkel kombination av grundläggande avstånd för att hitta närmaste grannar till en given bild. Nyckelorden tilldelas sedan med hjälp av en girig etikett överföringsmekanism. Det föreslagna utgångsläget överträffar de nuvarande toppmoderna metoderna på två standard- och en stor webbdatauppsättning. Vi tror att en sådan baslinjeåtgärd kommer att utgöra en stark plattform för att jämföra och bättre förstå framtida annoteringsmetoder.
Automatisk bild annotation baserad på andra metoder: För bild annotation, Makadia et al. föreslog en ny baslinjeteknik som använder sig av bildfunktioner på låg nivå och en enkel avståndsalgoritm för att hitta närmaste granne till en given bild REF.
13,937,697
A new baseline for image annotation
{'venue': 'In ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,927
Konvolutionella nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att konvolutionsnätverken själva, tränade end-to-end, pixlar till pixel, överskrider toppmoderna i semantisk segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnät (AlexNet [20], VGG-nätet [31] och GoogLeNet [32]) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering [3] till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Vårt helt konvolutionella nätverk uppnår toppmodern segmentering av PASCAL VOC (20 % relativ förbättring till 62,2 % genomsnittlig IE 2012), NYUDv2 och SIFT Flow, medan slutsatsen tar mindre än en femtedel av en sekund för en typisk bild. 3431 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
När det gäller bildsegmentering för allmänna ändamål är fullt konvolutionella nät (FCN) REF det senaste inom semantisk segmentering.
56,507,745
Fully convolutional networks for semantic segmentation
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
11,928
Den större kraften i dåliga händelser framför goda sådana finns i vardagliga händelser, större händelser i livet (t.ex. trauma), nära relationer, sociala nätverksmönster, interpersonella interaktioner och inlärningsprocesser. Dåliga känslor, dåliga föräldrar och dålig feedback har större inverkan än goda, och dålig information behandlas mer grundligt än bra. Självet är mer motiverat att undvika dåliga självdefinitioner än att sträva efter goda. Dåliga intryck och dåliga stereotyper är snabbare att forma och mer motståndskraftiga mot konfirmation än goda. Olika förklaringar såsom diagnostik och hälsa bidrar till att förklara vissa fynd, men den större kraften i dåliga händelser finns fortfarande när sådana variabler kontrolleras. Det finns knappast några undantag (som tyder på att det goda har större makt) att göra. Sammantaget tyder dessa fynd på att det dåliga är starkare än det goda, som en allmän princip inom ett brett spektrum av psykologiska fenomen. Århundraden av litterära ansträngningar och religiöst tänkande har skildrat mänskligt liv i form av en kamp mellan goda och dåliga krafter. På metafysisk nivå är onda gudar eller djävlar motståndare till skapelsens och harmonins gudomliga krafter. På individuell nivå kämpar frestelser och destruktiva instinkter mot strävan efter dygd, altruism och uppfyllelse. "Bra" och "dåliga" är bland de första orden och begreppen som barn lär sig (och till och med husdjur), och de flesta människor kan lätt karakterisera nästan alla erfarenheter, känslor eller resultat som goda eller dåliga. Vilken form har denna eviga konflikt inom psykologin? Syftet med denna artikel är att granska bevis som hänför sig till den allmänna
I sin litteraturrecension drog REF slutsatsen att dåligt är starkare än bra inom nästan alla områden inom psykologin.
13,154,992
Bad Is Stronger Than Good
{'venue': None, 'journal': 'Review of General Psychology', 'mag_field_of_study': ['Psychology']}
11,929
Neurala nätverk är kraftfulla och flexibla modeller som fungerar bra för många svåra inlärningsuppgifter i bild, tal och naturligt språkförståelse. Trots deras framgång är neurala nätverk fortfarande svåra att designa. I detta papper använder vi ett återkommande nätverk för att generera modellbeskrivningar av neurala nätverk och träna denna RNN med förstärkning lärande för att maximera den förväntade noggrannheten hos de genererade arkitekturer på en valideringsuppsättning. På CIFAR-10-datasetet kan vår metod, med början från grunden, designa en ny nätverksarkitektur som konkurrerar med den bästa människouppfinnade arkitekturen när det gäller testuppsättningens noggrannhet. Vår CIFAR-10-modell uppnår en testfelfrekvens på 3,65, vilket är 0,09 procent bättre och 1,05x snabbare än den tidigare toppmoderna modellen som använde ett liknande arkitektoniskt system. På Penn Treebanks datauppsättning kan vår modell komponera en ny återkommande cell som överträffar den allmänt använda LSTM-cellen och andra toppmoderna baslinjer. Vår cell uppnår en testuppsättning på 62.4 perplexitet på Penn Treebank, vilket är 3,6 perplexitet bättre än den tidigare toppmoderna modellen. Cellen kan också överföras till teckenspråkets modelleringsuppgift på PTB och uppnå en toppmodern perplexitet på 1.214.
Zoph och Le REF använde ett återkommande neuralt nätverk utbildat genom att förstärka lärande för att maximera den förväntade noggrannheten hos den genererade DCNN arkitekturen på en validering uppsättning bilder.
12,713,052
Neural Architecture Search with Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,930
Vi anser att ett opålitligt trådlöst sensornät med n noder placerade i en kvadrat enhet område. Vi är intresserade av täckningen av regionen och anslutningen av nätverket. Vi visar först att de nödvändiga och tillräckliga villkoren för det slumpmässiga nätet för att täcka enheten kvadrat region samt se till att de aktiva noderna är anslutna är av formen n, där r (n) är överföringsradien för varje nod och p (n) är sannolikheten för att en nod är "aktiv" (inte misslyckades). Detta resultat indikerar att när n är stort, även om varje nod är mycket opålitlig och överföringskraften är liten, kan vi fortfarande upprätthålla anslutning med täckning. Vi visar också att diametern på det slumpmässiga rutnätet (dvs. det maximala antalet humle som krävs för att resa från någon aktiv nod till en annan) är av ordningen n/ log(n). Slutligen får vi ett tillräckligt villkor för anslutning av de aktiva noderna (utan att nödvändigtvis ha täckning). Om noden framgång sannolikhet p(n) är liten nog, visar vi att anslutning inte innebär täckning.
I REF, Shakkottai et al. uppvisas nödvändiga och tillräckliga villkor för 1-täckta, 1-anslutna nät för sensornät.
15,796,211
Unreliable sensor grids: coverage, connectivity and diameter
{'venue': 'Ad Hoc Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,931
Abstract-Static Binary Instrumentation är en teknik som tillåter kompilering-tid programmanipulering. I synnerhet genom att förlita sig på ad-hoc verktyg, kan slutanvändaren ändra programmets exekvering flöde utan att påverka dess övergripande semantiska. Denna teknik har använts effektivt, t.ex. för att stödja kodprofilering, prestandaanalys, feldetektering, attackdetektering eller beteendeövervakning. Det finns dock fortfarande tekniska och metodologiska problem när det gäller att effektivt förlita sig på statiska instrument för tillverkning av körbara fordon som kan användas utan att det påverkar ansökans övergripande prestanda. I detta papper presenterar vi Hijacker, en öppen källkod anpassningsbara statiska binära instrumenteringsverktyg som kan ändra ett programs exekveringsflöde enligt vissa användardefinierade regler, begränsa utförandet overhead på grund av koden sippets in i det ursprungliga programmet, vilket möjliggör utnyttjande i högpresterande dator. Verktyget är mycket modulärt och fungerar på en intern representation av programmet som gör det möjligt att utföra komplexa instrumenteringsuppgifter effektivt, och kan dessutom utökas för att stödja olika instruktionsuppsättningar och körbara format utan att behöva ändra instrumentmotorn. Vi presenterar dessutom en experimentell bedömning av de overhead som induceras av den injicerade koden i verkliga HPC-applikationer.
Hijacker REF är en öppen källkod anpassningsbara statiska binära instrumenteringsverktyg.
10,223,258
Hijacker: Efficient static software instrumentation with applications in high performance computing: Poster paper
{'venue': '2013 International Conference on High Performance Computing & Simulation (HPCS)', 'journal': '2013 International Conference on High Performance Computing & Simulation (HPCS)', 'mag_field_of_study': ['Computer Science']}
11,933
Abstract-I detta dokument föreslår vi VIRO -en ny, virtuell identifierare (Id) routing paradigm för framtida nätverk. Målet är trefaldigt. För det första tar VIRO direkt itu med de utmaningar som den traditionella lager 2-tekniken som Ethernet står inför, samtidigt som den bibehåller sin enkelhet. För det andra ger det ett enhetligt konvergenslager som integrerar och förenar routing och spedition som utförs av det traditionella skiktet-2 och lager-3, såsom föreskrivs i det traditionella lokala området/bredområdesnätets dikotomi. För det tredje och kanske ännu viktigare: VIRO frikopplar routing från adressering, och därmed är namnrymdsoberoende. Nyckelidén i vår design är att introducera en topologi-medveten, strukturerad virtuell id (vid) utrymme på vilken både fysiska identifierare samt högre lager adresser / namn kartläggs. VIRO eliminerar helt nätomfattande översvämningar i både data- och kontrollplan och är därmed mycket skalbar och robust. Dessutom lokaliserar VIRO effektivt fel och har inbyggda mekanismer för snabb omdirigering och lastbalansering.
REF introducerar ett virtuellt identifieringsutrymme på vilket strömbrytarens fysiska identifierare kartläggs, som visas i figur 1.
6,954,538
VIRO: A scalable, robust and namespace independent virtual Id routing for future networks
{'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
11,934
Abstract-Vi presenterar design och utveckling av automatprocessorn, en massivt parallell icke-von Neumann halvledararkitektur som är avsedd för automatisk bearbetning. Denna arkitektur kan direkt implementera icke-deterministiska ändliga automata i hårdvara och kan användas för att genomföra komplexa reguljära uttryck, liksom andra typer av automata som inte kan uttryckas som reguljära uttryck. Vi visar att denna arkitektur överstiger kapaciteten hos högpresterande FPGA-baserade implementationer av processorer med reguljära uttryck. Vi rapporterar om utvecklingen av ett XML-baserat språk för att beskriva automata för enkel sammanställning riktad till hårdvaran. Automatprocessorn kan effektivt användas i en mängd olika applikationer som drivs av mönstermatchning, såsom cybersäkerhet och beräkningsbiologi.
Micron Technology, Inc. byggde en massivt parallell halvledararkitektur som direkt implementerade reguljära uttryck i hårdvara REF.
1,471,025
An Efficient and Scalable Semiconductor Architecture for Parallel Automata Processing
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
11,935
ABSTRACT Mental stress har blivit en social fråga och kan bli en orsak till funktionsnedsättning under rutinarbete. Dessutom kan kronisk stress innebära flera psykofysiologiska störningar. Stress ökar till exempel risken för depression, stroke, hjärtattack och hjärtstillestånd. Den senaste neurovetenskapen visar att den mänskliga hjärnan är det primära målet för mental stress, eftersom uppfattningen av den mänskliga hjärnan avgör en situation som är hotfull och stressig. I detta sammanhang skulle en objektiv åtgärd för att identifiera stressnivåer, samtidigt som man överväger den mänskliga hjärnan, avsevärt kunna förbättra de därmed förbundna skadliga effekterna. Därför föreslås i detta dokument en ram för maskininlärning (ML) som omfattar elektroencefalogram (EEG) signalanalys av stressade deltagare. I den experimentella miljön framkallades stress genom att anta ett välkänt experimentellt paradigm baserat på montreal avbildning stress uppgift. Induktionen av stress validerades av uppgiftens prestanda och subjektiv återkoppling. Det föreslagna ML-ramverket omfattade EEG-funktionsextraktion, val av funktioner (mottagarens karakteristiska kurv, t-test och Bhattacharya-avståndet), klassificering (logistisk regression, stödvektormaskin och naiva Bayes-klassificerare) och tiofaldig korsvalidering. Resultaten visade att det föreslagna ramverket gav 94,6 % noggrannhet för tvånivåidentifiering av stress och 83,4 % noggrannhet för flernivåidentifiering. Sammanfattningsvis har det föreslagna EEG-baserade ML-ramverket potential att objektivt kvantifiera stress till flera nivåer. Den föreslagna metoden skulle kunna bidra till att utveckla ett datorstödt diagnostiskt verktyg för att upptäcka stress. INDEX TERMS Absolut effekt, amplitudasysymmetri, koherens, EEG, maskininlärning, mentala stressnivåer, fasfördröjning, relativ effekt, stödvektormaskin, t-test.
Ett ramverk för maskininlärning med hjälp av EEG-signaler föreslogs i REF, där stress inducerades genom att använda Montreal imaging stress uppgift (MIST), och SVM, NB, och LR klassificerare användes för att klassificera stressnivån av deltagare.
5,911,541
Machine Learning Framework for the Detection of Mental Stress at Multiple Levels
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
11,936
ABSTRACT Med sikte på kapacitetsoptimering av ett isolerat mikrogrid etablerar detta dokument en kapacitetsoptimeringsmodell på två nivåer som beaktar hantering av belastningsefterfrågan (LDM) samtidigt som man på ett omfattande sätt beaktar osäkerhetsfaktorer i fråga om belastning och förnybar produktion. Osäkerheterna i detta dokument orsakas av källan och belastningen på samma tidsskala samt av de olika osäkerhetsegenskaper som presenteras under olika tidsperioder. För långa tidsperioder, problemet med källa / belastning slumpmässig osäkerhet löses med hjälp av den stokastiska nätverkskalkyl teori för att möta energibalans begränsningar. För korta tidsperioder siktar vi främst på att lösa problemet med effektbalans på driftsnivå, med tanke på osäkerheten för fel i bränsle-/lastprognoser och effekterna av LDM. Särskilt genom att styra de avbrytbara och utbytbara lasterna kan LDM optimera belastningsegenskaperna, minska driftskostnaderna och öka systemstabiliteten. Den två-nivå optimering modell som fastställs i detta papper analyseras med avseende på energi och effekt balans begränsningar, och den föreslagna blandade heltal linjär programmering (MILP) modell löses genom att använda CPLEX lösaren för att minimera investeringskostnaden. En typisk mikrogrid, bestående av en vindturbin (WT), en solcellspanel (PV), en styrbar mikrogenerator (CMG) och ett energilagringssystem (ESS), tas som exempel för att studera problem med kapacitetsoptimering. Simuleringsresultaten verifierar den föreslagna modellens och metodens rationalitet och effektivitet. INDEX TERMS Kapacitetsplanering, isolerad mikrogrid, hantering av belastningsefterfrågan, osäkerheter. NOMENKLATUR
I REF antas en stokastisk nätkalkylteori för att lösa problemet med osäkerheter i samband med utbud och krav på långa tidsperioder samtidigt som energibalansbegränsningarna uppfylls.
195,832,322
A Bi-Level Capacity Optimization of an Isolated Microgrid With Load Demand Management Considering Load and Renewable Generation Uncertainties
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
11,937
Statslös modellkontroll är en kraftfull teknik för programverifiering, som dock lider av en exponentiell ökning av antalet utforskade utföranden. En framgångsrik teknik för att minska detta antal, samtidigt som fullständig täckning, är Dynamic Partial Order Reduction (DPOR). Vi presenterar en ny DPOR-algoritm, som är den första att vara bevisligen optimal genom att den alltid utforskar det minimala antalet utföranden. Det är baserat på en ny klass av uppsättningar, kallas källkodsuppsättningar, som ersätter rollen av ihållande uppsättningar i tidigare algoritmer. Först visar vi hur man modifierar en befintlig DPOR algoritm för att arbeta med källuppsättningar, vilket resulterar i en effektiv och enkel att implementera algoritm. För det andra, vi utökar denna algoritm med en ny mekanism, kallad wakeup träd, som gör det möjligt att uppnå optimalitet. Vi har implementerat båda algoritmerna i en statslös modellkontrollverktyg för Erlangprogram. Experiment visar att källuppsättningar avsevärt ökar prestandan och att uppvaknande träd endast ådrar sig en liten overhead i både tid och rum.
Optimala dynamiska partiella orderreduktionsREF undersöker ett minsta antal representativa trådkopplingar.
2,381,057
Optimal dynamic partial order reduction
{'venue': "POPL '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,938
Vi föreslår en ny latent faktor modell för att rekommendera produktstorlek ts {Small, Fit, Large} till kunder. Latentfaktorer för kunder och produkter i vår modell motsvarar deras fysiska verkliga storlek och lärs av tidigare produktköp och returdata. Utfallet för en kund, produkt par förutsägs baserat på skillnaden mellan kund och produkt verkliga storlekar, och e cient algoritmer föreslås för beräkning kund och produkt sann storlek värden som minimerar två förlust funktionsvarianter. I experiment med Amazon skodataset, visar vi att våra latenta faktormodeller som innehåller personas, och att utnyttja returkoder visar en 17-21% AUC-förbättring jämfört med utgångsvärden. I ett online A/B test, våra algoritmer visar en förbättring på 0,49% i procent av Fit transaktioner över kontroll.
I REF uppskattas den verkliga storleken för kunder och produkter med hjälp av en latent faktormodell, och rekommendationer görs om en likhetsbaserad metod.
13,468,493
Recommending Product Sizes to Customers
{'venue': "RecSys '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,939
Undersökningen av riktade acykliska grafer (DAG) som kodar samma Markov egenskap, det vill säga samma villkorliga oberoende relationer av multivariata observational distributioner, har en lång tradition; många algoritmer finns för modellval och strukturinlärning i Markov ekvivalensklasser. I detta dokument utsträcker vi begreppet Markovs likvärdighet till att omfatta interventionsdistributioner till följd av flera interventionsexperiment. Vi visar att under rimliga antaganden om interventionsförsöken definierar interventionell Markov ekvivalens en finare uppdelning av DAG än observationell Markov ekvivalens och därmed förbättrar identifieringen av kausala modeller. Vi ger en graf teoretisk kriterium för två DAGs som Markov likvärdiga under interventioner och visar att varje interventional Markov ekvivalens klass kan, analogt med observationsfallet, unikt representeras av en kedja grafen kallas interventional väsentlig graf (även känd som CPDAG i observationsfallet). Dessa är viktiga insikter för att härleda en generalisering av Greedy Equivalence Search algoritm som syftar till strukturinlärning från interventionella data. Denna nya algoritm utvärderas i en simuleringsstudie.
Detta faktum gör det möjligt för oss att naturligt utvidga begreppen Markov ekvivalens och väsentliga diagram till den interventionella inställningen, som beskrivs i REF.
16,393,667
Characterization and Greedy Learning of Interventional Markov Equivalence Classes of Directed Acyclic Graphs
{'venue': 'Journal of Machine Learning Research, 13:2409-2464, 2012', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,940
Vi presenterar en ny undergrupp scan metod för att upptäcka om en probabilistisk binär klassificerare har statistiskt signifikant bias-over eller under förutsäga risken - för någon undergrupp, och identifiera egenskaperna hos denna undergrupp. Denna form av modellkontroll och gy-of-fit test ger ett sätt att tolka förekomsten av klassificeringsfördel och dålig klassificerings passform, inte bara i en eller två dimensioner av egenskaper av intresse i förväg, utan i utrymmet för alla möjliga funktionsundergrupper. Vi använder subgruppsskanning och parametriska bootstrap metoder för att effektivt ta itu med svårigheten att bedöma exponentiellt många möjliga subgrupper. Vi föreslår också flera användbara förlängningar av denna metod för att öka tolkningsbarheten av prediktiva modeller och förutsägelseprestanda.
Den prediktiva biasen av en klassifier identifieras med hjälp av en delmängd scan metod i REF.
2,256,765
Identifying Significant Predictive Bias in Classifiers
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,941
På grund av ett stort antal tillämpningar, problemet med att uppskatta antalet trianglar i grafer avslöjas som en ström av kanter, och det nära relaterade problemet med att uppskatta grafens kluster koefficient, har fått stor uppmärksamhet under det senaste årtiondet. Både effektiva algoritmer och omöjliga resultat har kastat ljus över problemets beräkningskomplexitet. Motiverad av applikationer inom webbbrytning, Becchetti et al. presenterade nya algoritmer för uppskattning av det lokala antalet trianglar, dvs. antalet trianglar tillbud till enskilda hörn. Algoritmerna visas, både teoretiskt och experimentellt, för att effektivt hantera problemet. Det behövs dock minst två passager över data och därför är algoritmerna inte lämpliga för verkliga streamingscenarier. I detta arbete, vi anser problemet med att uppskatta kluster koefficienten för enskilda hörn i en graf över n hörn avslöjas som en ström av m kanter. Som ett första resultat visar vi att alla passera randomiserade strömmande algoritm som kan skilja en graf utan trianglar från en graf med en vertex av grad d med kluster koefficient > 1/2 måste använda (m/d) bitar av utrymme i förväntan. Vårt andra resultat är en ny randomiserad enpass-algoritm som uppskattar den lokala klusterkoefficienten för varje vertex med grad åtminstone d. Utrymmeskravet för vår algoritm ligger inom en logaritmisk faktor av den lägre gränsen, vilket vår strategi är nära optimal. Vi utökar också algoritmen till lokal triangelräkning och rapporterar experimentella resultat om dess prestanda på verkliga grafer.
Kutzkov och Ragh REF utvecklar en en-pass streaming algoritm.
17,018,866
On the streaming complexity of computing local clustering coefficients
{'venue': "WSDM '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,942
Hjärndatorinteraktion (BCI) och fysiologisk beräkning är termer som hänvisar till att använda bearbetade neurala eller fysiologiska signaler för att påverka mänsklig interaktion med datorer, miljö, och varandra. En stor utmaning i utvecklingen av dessa system uppstår från de stora individuella skillnader som vanligtvis ses i neurala / fysiologiska svar. Som ett resultat av detta använder många forskare individuellt utbildade igenkänningsalgoritmer för att bearbeta dessa data. För att minimera tid, kostnad och hinder för användning finns det ett behov av att minimera mängden individuella träningsdata som krävs, eller på motsvarande sätt, för att öka igenkänningsnoggrannheten utan att öka antalet användarspecifika utbildningsprover. En lovande metod för att uppnå detta är samarbetsfiltrering, som kombinerar utbildningsdata från det enskilda ämnet med ytterligare utbildningsdata från andra, liknande ämnen. I detta dokument beskrivs en framgångsrik tillämpning av en samverkande filtreringsmetod avsedd för ett BCI-system. Detta tillvägagångssätt bygger på överföringslärande (TL), aktivt klassurval (ACS) och en genomsnittlig squared skillnad mellan användare och liknande heuristiska. Det resulterande BCI-systemet använder neurala och fysiologiska signaler för automatisk problemigenkänning. TL förbättrar inlärningsresultatet genom att kombinera ett litet antal användarspecifika träningsprover med ett stort antal extra träningsprover från andra liknande ämnen. ACS väljer optimalt kurserna för att generera användarspecifika träningsprover. Experimentella resultat på 18 ämnen, med hjälp av både k närmaste grannar och stöd vektor maskin klassificerare, visar att den föreslagna metoden kan avsevärt minska antalet användarspecifika utbildningsdata prover. Denna samverkande filtreringsmetod kommer också att vara allmänt tillgänglig för att hantera individuella skillnader i många andra tillämpningar som involverar mänskliga neurala eller fysiologiska data, såsom affektiv computing.
Wu och Al. REF tillämpade samarbetsfiltrering för att minska den mängd utbildningsdata som krävs genom att kombinera utbildningsdata från ett enskilt ämne med ytterligare utbildningsdata från andra, liknande ämnen.
18,490,933
Collaborative Filtering for Brain-Computer Interaction Using Transfer Learning and Active Class Selection
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,943
ABSTRACT Cancerns komplexitet driver forskare att hitta nya sätt att syntetisera information från olika datakällor och att genomföra samordnade forskningsinsatser som spänner över flera institutioner. Det finns ett behov av standardtillämpningar, gemensamma datamodeller och programvaruinfrastruktur för att möjliggöra effektivare tillgång till och delning av distribuerade beräkningsresurser inom cancerforskningen. För att tillgodose detta behov har National Cancer Institute (NCI) inlett en nationell insats, kallad Cancer Biomedical Informatics Grid (caBIG), för att utveckla en federation av interoperabla forskningsinformationssystem. Resultat: I hjärtat av caBIG-metoden för federerad driftskompatibilitet insats är en Grid middleware infrastruktur, som kallas caGrid. I detta dokument beskriver vi caGrid ramverket och dess nuvarande genomförande, caGrid version 0.5. caGrid är en modelldriven och serviceorienterad arkitektur som syntetiserar och utökar ett antal tekniker för att tillhandahålla en standardiserad ram för reklam, upptäckt, och åberopande av data och analytiska resurser. Vi förväntar oss att caGrid i hög grad ska underlätta lansering och löpande hantering av samordnade cancerforskningsstudier som involverar flera institutioner, ge möjlighet att hantera och på ett säkert sätt dela information och analytiska resurser, och stimulera en ny generation av forskningstillämpningar som ger forskare möjlighet att inta en mer integrativ, trans-domänisk strategi för datautvinning och analys. Tillgänglighet: CaGrid version 0.5 release kan laddas ner från https://cabig.nci.nih.gov/workspaces/Architecture/caGrid/. Den operativa testbädden Grid kan nås via klienten som ingår i utgåvan, eller via webbapplikationen caGrid-browser: http://cagrid-browser.nci.nih.gov.
CaGrid Ref syftar till att bygga en Grid-programvarainfrastruktur för multiinstitutionell datadelning och analys för cancerforskning.
13,746,964
caGrid: design and implementation of the core architecture of the cancer biomedical informatics grid
{'venue': 'Bioinformatics', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,944
Datautvinningstillämpningar ställer särskilda krav på klusteralgoritmer, inklusive förmågan att hitta kluster inbäddade i subrymder med data med hög dimension, skalbarhet, slutanvändarförståelse för resultaten, icke-presumtion av eventuell kanonisk datadistribution och okänslighet för indataposter. Vi presenterar CLIQUE, en klusteralgoritm som uppfyller vart och ett av dessa krav. CLIQUE identifierar täta kluster i subrymder med maximal dimensionalitet. Den genererar klusterbeskrivningar i form av DNF-uttryck som minimeras för att underlätta förståelsen. Den producerar identiska resultat oberoende av i vilken ordning inmatningsposter presenteras och förutsätter inte någon specifik matematisk form för datadistribution. Genom experiment visar vi att CLIQUE effektivt hittar exakta kluster i stora högdimensionella datauppsättningar.
CLIQUE (kluster i uppdrag) REF är en av de första subrymdsalgoritmer som försöker hitta kluster inom subrymder i datamängden.
1,260,437
Automatic subspace clustering of high dimensional data for data mining applications
{'venue': "SIGMOD '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,945
Cytoscape är ett mjukvaruprojekt med öppen källkod för att integrera biomolekylära interaktionsnätverk med högflödesuttrycksdata och andra molekylära tillstånd i ett enhetligt konceptuellt ramverk. Även om det är tillämpligt på alla system av molekylära komponenter och interaktioner, är Cytoscape mest kraftfull när det används i samband med stora databaser av protein-protein, protein-DNA, och genetiska interaktioner som är allt tillgängliga för människor och modellorganismer. Cytoscape programvara Core ger grundläggande funktionalitet för att layout och fråga nätverket; att visuellt integrera nätverket med uttryck profiler, fenotyper och andra molekylära tillstånd; och att länka nätverket till databaser av funktionella annoteringar. Kärnan är extensibel genom en enkel insticksarkitektur, vilket möjliggör snabb utveckling av ytterligare beräkningsanalyser och funktioner. Flera fallstudier av Cytoscape-plug-ins undersöks, bland annat en sökning efter interaktionsvägar som korrelerar med förändringar i genuttryck, en studie av proteinkomplex som är involverade i cellulär återhämtning till DNA-skada, slutsatser av ett kombinerat fysiskt/funktionellt interaktionsnätverk för Halobacterium, och ett gränssnitt mot detaljerade stokastiska/kinetiska genregulatoriska modeller. [Cytoscape v1.1 Core körs på alla större operativsystem och är fritt tillgänglig för nedladdning från http://www.cytoscape.org/ som ett Javaprogram med öppen källkod.] Sådana modeller lovar att omvandla biologisk forskning genom att tillhandahålla en ram för att (1) systematiskt förhöra och experimentellt verifiera kunskap om en väg; (2) hantera den enorma komplexiteten hos hundratals eller potentiellt tusentals cellkomponenter och interaktioner; och (3) avslöja framväxande egenskaper och oförutsedda konsekvenser av olika vägkonfigurationer. Vanligtvis är modeller riktade mot en cellprocess eller sjukdomsväg av intresse (Gilman och Arkin 2002) och byggs genom att formulera befintlig litteratur som ett system av differential och / eller stokastiska ekvationer. Vägspecifika modeller kompletteras nu med globala data som samlats in för en hel cell eller organism, med hjälp av två kompletterande metoder. För det första har den senaste tekniska utvecklingen gjort det möjligt att systematiskt mäta vägstrukturen med hjälp av höggenomströmningsskärmar för proteinprotein (Ito et al. 2001; von Mering m.fl. 2002 ), protein-DNA (Lee et al. 2002 och genetiska interaktioner (Tong et al. 2001)................................................................................................... För att komplettera dessa data finns en andra uppsättning höggenomströmningsmetoder tillgängliga för att karakterisera de molekylära och cellulära tillstånd som induceras av väginteraktioner under olika experimentella betingelser. Till exempel mäts globala förändringar i genuttryck med DNA-mikroarrayer (DeRisi et al. 1997), medan förändringar i proteinmängd (Gygi et al. 1999), proteinfosforyleringstillstånd (Zhou et al. 2001) och metabolitkoncentrationer (Griffin et al. 2001) kan kvantifieras med massspektrometri, NMR och andra avancerade tekniker. Data med hög genomströmning avseende molekylära interaktioner och tillstånd är väl matchade, eftersom båda datatyperna är globala (som tillhandahåller information för alla komponenter eller interaktioner i en organism), hög nivå (som beskriver samband mellan vägkomponenter utan detaljerad information om reaktionshastigheter, bindningskonstanter eller diffusionskoefficienter), och grovkorniga (som ger kvalitativa data, såsom närvaro eller frånvaro av interaktion eller riktning för en uttrycklig förändring, lättare än exakta kvantitativa avläsningar). Motiverad av explosionen i experimentell teknik för att karakterisera molekylära interaktioner och tillstånd, har forskare vänt sig till en mängd olika mjukvaruverktyg för att bearbeta och analysera de resulterande storskaliga data. För molekylära interaktioner, allmänna graftitlar som Pajek (Batagelj och Mrvar 1998), Graphlet (www.infosun.fmi.uni-passau.de/Graphlet/), och daVinci (www.informatik.uni-bremen.de/daVinci/) finns tillgängliga för att organisera och visa data som ett tvådimensionellt nätverk; specialiserade verktyg som Osprey (http://biodata.mshri.on.ca) och PIMister (pim.hybrigenics.com) tillhandahåller dessa funktioner och länkar även nätverket till molekylär interaktion och funktionella databaser såsom BIND ), DIP (Xenarios och Eisenberge 2001), eller TRANSFAC (Wingender et al. Detta är en av de viktigaste frågorna som togs upp i samband med Europeiska rådets möte i Lissabon 2001. På liknande sätt, för genuttryck profiler och andra molekylära tillstånd, många program såsom GeneCluster (Tamayo et al. 1999), TreeView (Eisen et al. 1998) och GeneSpring (www.silikongenetik. finns tillgängliga för klusterbildning, klassificering och visualisering. Det finns dock ett trängande behov av programvara som kan integrera både molekylära interaktioner och tillståndsmätningar tillsammans inom en gemensam ram, och sedan överbrygga dessa data med ett brett sortiment av modellparametrar och andra biologiska attribut. Dessutom kommer det att krävas ett flexibelt och öppet system för att underlätta allmänna och extensiva beräkningar av interaktionsnätet (Karp 2001). Det är genom dessa compu-
Cystoscape REF är en öppen källkod, fristående Java-program.
15,588,516
Cytoscape: A Software Environment for Integrated Models of Biomolecular Interaction Networks
{'venue': 'Genome research', 'journal': 'Genome research', 'mag_field_of_study': ['Biology', 'Medicine']}
11,946
Abstract-Advanceds inom virtualiseringsteknik gör det möjligt att skapa resurspooler av servrar som tillåter flera applikationer arbetsbelastningar att dela varje server i poolen. För att kunna utforma och tillhandahålla befintliga och framtida tjänster i sådana pooler på ett korrekt sätt är det av avgörande betydelse att man är medveten om företagens arbetsbörda. I detta dokument behandlas frågor om arbetsbelastningsanalys, prestandamodellering och kapacitetsplanering. Vårt mål är att automatisera den effektiva användningen av resurspooler när vi är värd för ett stort antal företagstjänster. Vi använder en spårbaserad metod för kapacitetshantering som bygger på i) karakterisering av belastningsefterfrågan mönster, ii) generering av syntetisk arbetsbelastning som förutsäger framtida krav baserade på mönster, och iii) en arbetsbelastning placering rekommendation tjänst. Noggrannheten i förutsägelser om kapacitetsplanering beror på vår förmåga att karakterisera belastningsefterfrågans mönster, att känna igen trender för förväntade förändringar i framtida krav och att återspegla affärsprognoser för i övrigt oväntade förändringar i framtida krav. En analys av arbetsbelastningen visar att arbetsbelastningen är hög och repetitiv. Arbetsbelastningar klassificeras automatiskt enligt deras periodiska beteende. Likheten mellan upprepade förekomster av mönster utvärderas. Syntetiska arbetsbelastningar genereras från mönstren på ett sätt som upprätthåller den periodiska naturen, sprickighet, och trendiga beteende arbetsbelastningar. En fallstudie som omfattar sex månaders data för 139 företagstillämpningar används för att tillämpa och utvärdera analysen av företagets arbetsbelastning och relaterade kapacitetsplaneringsmetoder. Resultaten visar att vi vid konsolidering till 8 processorsystem förutspådde att framtida per-server krävde kapacitet till inom en processor 95% av tiden. Noggrannheten i prognoserna för den kapacitet som krävs tyder på att sådana resursbesparingar kan uppnås med liten risk.
Således förutses arbetsbelastningen i företagen i REF med hänsyn till prestandamodellering och kapacitetsplanering, enligt efterfrågemönster för att utforma rekommendationstjänster.
1,662,110
Workload Analysis and Demand Prediction of Enterprise Data Center Applications
{'venue': '2007 IEEE 10th International Symposium on Workload Characterization', 'journal': '2007 IEEE 10th International Symposium on Workload Characterization', 'mag_field_of_study': ['Computer Science']}
11,947
Abstract-Device-to-device (D2D) kommunikation underlaying cellulära nätverk förväntas ge betydande fördelar för att utnyttja resurser, förbättra användarens genomströmning och förlänga batteritiden för användarutrustningar. Fördelningen av radio- och kraftresurser till D2D-kommunikation kräver dock en noggrann samordning, eftersom D2D-kommunikation kan orsaka störningar i den cellulära kommunikationen. I detta dokument studerar vi gemensam kanal- och kraftfördelning för att förbättra energieffektiviteten hos användarutrustning. För att lösa problemet effektivt introducerar vi en iterativ kombinatorisk auktionsalgoritm, där D2D-användarna betraktas som budgivare som konkurrerar om kanalresurser, och cellnätet behandlas som auktionsförrättare. Vi analyserar också viktiga egenskaper hos D2D underlay kommunikation, och presentera numeriska simuleringar för att verifiera den föreslagna algoritmen.
Wang m.fl. REF studerade gemensamma kanaler och energiallokering för att förbättra energieffektiviteten hos användarutrustning genom att analysera deras batterier.
15,527,113
Energy-Efficient Resource Allocation for Device-to-Device Underlay Communication
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,948
Abstrakt. Modelldriven mjukvaruutveckling syftar till att underlätta processen för programvaruutveckling genom att använda modeller som primära artefakter. Även mindre komplexa än de verkliga system de bygger på, modeller tenderar att vara komplexa ändå, vilket gör uppgiften att förstå dem icke-trivial i många fall. I detta dokument föreslår vi en teknik för modellförståelse baserad på sönderdelning av modeller i undermodeller som överensstämmer med samma metamodell som den ursprungliga modellen. De viktigaste bidragen i detta dokument är: en matematisk beskrivning av strukturen hos dessa undermodeller som en lattice, en linjär tid algoritm för att konstruera denna nedbrytning och slutligen en tillämpning av vår nedbrytning teknik för att modellera förståelse.
Kelsen m.fl. I REF föreslås ett tillvägagångssätt för att dela upp modeller i undermodeller för att tämja de stora modellernas komplexitet.
10,729,482
Models within models: taming model complexity using the sub-model lattice
{'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,949
I en nyligen publicerad artikel om fysiska brev, Vicsek m.fl. föreslå en enkel men övertygande diskret tid modell av 7 ~ autonoma agenter {dvs, punkter eller partiklar) alla rör sig i planet med samma hastighet men med olika rubriker. Varje agents rubrik uppdateras med hjälp av en lokal regel baserad på genomsnittet av sin egen rubrik plus rubrikerna i sina "grannar". I deras tidning, Vicsek et al. tillhandahålla simuleringsresultat som visar att närmaste granne regel de studerar kan c a w alla agenter att så småningom röra sig i samma riktning trots avsaknaden av centraliserad samordning och trots att varje agents uppsättning av närmaste grannar förändras med tiden som systemet utvecklas. Denna uppsats ger en teoretisk förklaring till detta observerade beteende. Dessutom härleds konvergensreulter för flera andra på liknande sätt inspirerade modeller. Den Vicsek modellen visar t o vara ett grafiskt exempel på en switchad linjär system som är stabil, men för vilken det inte finns en vanlig quadratic Lyapunov funktion.
År 2003, Jadbabaie m.fl. REF analyserade en förenklad Vicsek-modell utan bullereffekter och gav en teoretisk förklaring till närmaste grannregel som kan få alla agenter att så småningom röra sig i samma riktning.
125,226,216
Coordination of groups of mobile autonomous agents using nearest neighbor rules
{'venue': 'Proceedings of the 41st IEEE Conference on Decision and Control, 2002.', 'journal': 'Proceedings of the 41st IEEE Conference on Decision and Control, 2002.', 'mag_field_of_study': ['Computer Science']}
11,950
Abstrakt. Utvecklingen av mobil och trådlös teknik under de senaste åren gör det möjligt att utveckla nya och mer komplexa sammanhangsmedvetna och genomträngande system. Dessa tillämpningar omfattar ett brett spektrum av problem, sektorer, scenarier och miljöer som syftar till att bygga smarta miljöer, såsom pedagogisk innovation. I detta dokument presenterar vi ett förslag till ett genomträngande system som ger studenterna tillgång till bibliografiska källor som rekommenderas av lärare i de ämnen eller kurser som studenterna är inskrivna i. För att definiera utbildningsinnehållet i ett ämne eller en kurs har IMS Learning Design standard använts. Slutligen beskriver vi användningen av NFC (Near Field Communication) för utvecklingen av det föreslagna genomträngande systemet, vilket visar nyttan av förslaget och användarnas acceptans.
Borrego Ref föreslog ett genomträngande system som ger studenterna tillgång till bibliografiska källor.
34,711,772
An NFC based context-aware solution for access to bibliographic sources in university environments
{'venue': 'JAISE', 'journal': 'JAISE', 'mag_field_of_study': ['Computer Science']}
11,951
Omdirigering av personer med korsmodalitet mellan de termiska och synliga domänerna är oerhört viktigt för övervakningstillämpningar nattetid. Befintliga verk i denna fil främst fokusera på att lära Sharable funktioner representationer för att hantera skillnader mellan olika transportsätt. Förutom den skillnad i intermodalitet som orsakas av olika kameraspektrum, lider den synliga värmepersonsåteridentifieringen också av stora variationer i intermodalitet och intramodalitet som orsakas av olika kameravyer och mänskliga poser. I detta dokument föreslår vi ett dubbelriktat nätverk med en ny dubbelriktad dubbelriktad dubbelriktad förlust i toppklass för att lära sig diskriminativa inslagsrepresentationer. Det är fördelaktigt i två aspekter: 1) end-to-end-funktionen lärande direkt från data utan extra metrisk inlärning steg, 2) det samtidigt hanterar korsmodalitet och intramodalitet variationer för att säkerställa discriminibilitet av de inlärda representationerna. Samtidigt införlivas identitetsförlust ytterligare för att modellera den identitetsspecifika informationen för att hantera stora variationer inom klassen. Omfattande experiment på två datauppsättningar visar den överlägsna prestandan jämfört med toppmoderna.
I ett annat arbete föreslår REF ett dubbelriktat nätverk med en ny dubbelriktad dubbelriktad dubbelriktad förlust för att lära sig diskriminativa funktionsrepresentationer på ett end-to-end-sätt.
51,607,387
Visible Thermal Person Re-Identification via Dual-Constrained Top-Ranking
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,952
Vi analyserar användningen av Speeded Up Robust Features (SURF) som lokala deskriptorer för ansiktsigenkänning. Effekten av olika funktionsextraktion och synpunktskonsistens begränsade matchningsmetoder analyseras. Dessutom föreslås en RANSAC-baserad borttagning av outlier för systemkombination. Det föreslagna tillvägagångssättet gör det möjligt att matcha ansikten under partiella ocklusioner, och även om de inte är perfekt i linje eller upplysta. Nuvarande metoder är känsliga för registreringsfel och förlitar sig vanligtvis på en mycket bra initial anpassning och belysning av ansiktena som ska kännas igen. En rutnätsbaserad och tät extraktion av lokala funktioner i kombination med en blockbaserad matchningsredovisning för olika synvinklar föreslås, eftersom räntepunktsbaserade dragextraktionsmetoder för ansiktsigenkänning ofta misslyckas. De föreslagna SURF-deskriptorerna jämförs med SIFT-deskriptorer. Experimentella resultat i AR-Face- och CMU-PIE-databasen med hjälp av manuellt justerade ansikten, ojusterade ansikten och delvis tillskurna ansikten visar att det föreslagna tillvägagångssättet är robust och kan överträffa nuvarande generiska tillvägagångssätt.
Speeded-Up Robust Features (SURF) används ytterligare för ansiktsigenkänning som visas till exempel i REF.
2,226,394
SURF-Face: Face Recognition Under Viewpoint Consistency Constraints
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,953
Sammanfattning — Uppgiften med automatisk gestigenkänning är mycket utmanande på grund av förekomsten av oförutsägbara och tvetydiga handrörelser. I detta papper, en ny metod utvecklas med hjälp av den dolda Markov Modell baserad teknik. För att hantera icke-gesurmönster introducerar vi konceptet med en tröskelmodell som beräknar sannolikhetströskeln för ett inmatningsmönster och ger en bekräftelsemekanism för de preliminärt matchade gestmönstren. Tröskelmodellen är en svag modell för alla tränade gester i den meningen att dess sannolikhet är mindre än för den dedikerade gestmodellen för en given gest. Sannolikheten kan därför användas som ett adaptivt tröskelvärde för val av lämplig gestmodell. Den har dock ett stort antal stater och måste minskas eftersom tröskelmodellen konstrueras genom att man samlar in tillstånden för alla gestmodeller i systemet. För att komma till rätta med detta problem slås de stater med liknande sannolikhetsfördelningar samman med hjälp av den relativa entropiåtgärden. Experimentella resultat visar att den föreslagna metoden framgångsrikt kan extrahera utbildade gester från kontinuerlig handrörelse med 93,14 procent tillförlitlighet.
Deras metod för tröskelmodellering liknar begreppsmässigt Lees och Kim Refs arbete, som använde dolda Markov-modeller (HMMs).
7,431,488
An HMM-Based Threshold Model Approach for Gesture Recognition
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,954
Abstract-Nighttime körning är farligare än dagtid körning - särskilt för äldre förare. Tre till fyra gånger så många trafikrelaterade dödsfall inträffar nattetid än dagtid. För att förbättra säkerheten vid nattkörning har automatisk detektering av fotgängare baserat på infraröda bilder väckt ökad uppmärksamhet eftersom fotgängare tenderar att sticka ut mer mot bakgrunden i infraröda bilder än de gör i synliga ljusbilder. Ändå är fotgängardetektering i infraröda bilder inte på något sätt trivial-många av de kända svårigheterna överförs från synliga ljusbilder, såsom bildvariabilitet som orsakas av fotgängare som befinner sig i olika poser. Vanligtvis måste flera olika fotgängarmallar användas för att hantera en rad olika poser. Dessutom är det svårt att upptäcka fotgängare på grund av dålig infraröd bildkvalitet (låg upplösning, låg kontrast, få särskiljande funktionspunkter, lite texturinformation, etc.) och vilseledande signaler. För att ta itu med dessa problem införs i detta dokument en formoberoende metod för att upptäcka fotgängare. Vår segmenteringsalgoritm uppskattar först fotgängares horisontella lägen genom projektionsbaserad horisontell segmentering och bestämmer sedan fotgängares vertikala lägen genom ljusstyrka/kroppsbaserad vertikal segmentering. Vår klassificeringsmetod definierar multidimensionella histogram-, tröghets- och kontrastbaserade klassificeringsegenskaper. Funktionerna är formoberoende, kompletterar varandra och fångar de statistiska likheterna hos bildlappar som innehåller fotgängare med olika poser. På så sätt behöver vårt fotgängarsystem endast en fotgängarmall som motsvarar en generisk gångposition och undviker brute-force-sökning efter fotgängare genom hela bilder, vilket vanligtvis innebär jämförelser av ljusstyrka och likhet mellan kandidatbildspatcher och en mångfald av fotgängarmallar. Vårt fotgängardetekteringssystem är varken baserat på spårning eller beror på kamerakalibrering för att avgöra förhållandet mellan objektets höjd och dess vertikala bildplatser. Det är således mindre begränsat i fråga om tillämplighet. Även om det fortfarande krävs mycket arbete för att överbrygga klyftan mellan nuvarande prestanda för fotgängardetektering och den höga tillförlitlighet som krävs för verkliga tillämpningar är vårt fotgängardetekteringssystem enkelt och ger uppmuntrande resultat när det gäller att förbättra hastigheten, tillförlitligheten och enkelheten. Index Terms-Autonom körning, klassificering, infraröd bildbehandling, intelligent transportsystem (ITS), intelligent fordon (IV), mörkerseende, mönsterigenkänning, fotgängardetektering, form oberoende.
I REF föreslås en formoberoende metod för att upptäcka fotgängare.
5,639,028
A shape-independent method for pedestrian detection with far-infrared images
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
11,955
Abstract-Behovet av en minskning av sjukvårdskostnaderna har ökat under det senaste årtiondet. Därför har förebyggande läkemedel genom hälsoövervakning på distans och Body Area Networks fått större uppmärksamhet. I detta dokument introduceras ett nytt protokoll för Medium Access Control (MAC), kallat Pulsed-MAC eller helt enkelt PMAC, för att effektivt hantera trådlös kommunikation i Body Area Networks. PMAC förlänger särskilt nätverkets livslängd genom att förstärka sensornoder med laddningspumpkretsar som skördar energi från en pulsad signal som används för att väcka noderna. Genom att mäta den genomsnittliga radioeffektförbrukningen i en sensornod under en 24 timmars simuleringsperiod visar resultaten att PMAC överträffar konventionell SMAC med upp till tre gånger och gör det lätt för ett Body Area Network att hålla längre än 200 dagar.
Dessutom introducerar författarna i REF ett protokoll för pulsad-MAC (PMAC) som förlänger kroppens nätverkstid genom att öka sensornoder med en laddningspumpkrets som skördar energi från en pulsad signal som används för att väcka upp noderna.
1,578,369
A power efficient pulsed MAC protocol for Body Area Networks
{'venue': '2011 IEEE 22nd International Symposium on Personal, Indoor and Mobile Radio Communications', 'journal': '2011 IEEE 22nd International Symposium on Personal, Indoor and Mobile Radio Communications', 'mag_field_of_study': ['Computer Science']}
11,956
Detta papper använder detaljerade veckodata om försäljning av inbundna fiktionsböcker för att utvärdera effekten av New York Times bestsellerlista på försäljning och produktutbud. För att kringgå det uppenbara problemet med samtidig försäljning och bestsellerstatus utnyttjar analysen tidsfördröjningar och oavsiktliga utelämnanden vid upprättandet av listan. De empiriska resultaten tyder på att det som förekommer på listan leder till en blygsam ökning av försäljningen för den genomsnittliga boken, och att effekten är mer dramatisk för bestsellers av debutförfattare. I tidningen diskuteras hur den ytterligare koncentrationen av efterfrågan på toppsäljande böcker kan leda till en minskning av det privata optimala antalet böcker att publicera. Uppgifterna tyder dock på motsatsen: marknadsexpansionseffekten av bestsellerlistor verkar dominera alla företagsstölder från icke-bästsäljande titlar. * Stanford University och NBER; [email protected]. Jag är tacksam mot Hoover-institutionen, där mycket av denna forskning genomfördes, och mot Nielsen BookScan för att ha tillhandahållit bokförsäljningsdata. Forskningen har haft nytta av hjälpsamma samtal med bland annat Jim King, Phillip Leslie och Joel Sobel. Scott Rasmussen gav utmärkt forskningsstöd. Alla fel är mina.
I ett separat arbete använde Sorensen felaktiga utelämnanden av böcker från New York Times bestsellers lista för att identifiera den ökning av försäljningen som följer med den upplevda populariteten av en boks utseende på listan REF.
49,028,945
Bestseller Lists and Product Variety
{'venue': None, 'journal': 'Journal of Industrial Economics', 'mag_field_of_study': ['Economics']}
11,957
Abstract-Test mallar och en test mall ram introduceras som användbara begrepp i specifikationsbaserad testning Ramen kan definieras med hjälp av någon modell-baserad specifikation notation och används för att härleda tester från modell-baserade specifikationer i detta papper, det demonstreras med hjälp av Z notation. Ramen definierar formellt testdataset och deras förhållande till verksamheten i en specifikation och till andra testdataset, vilket ger testprocessen struktur. Flexibilitet bevaras, så att många teststrategier kan användas. Viktiga tillämpningsområden för ramverket diskuteras, bland annat förfining av testdata, regressionstester och testorakler.
Uppförandespecifikationernas roll är därför att tillhandahålla abstrakta testfall, testorakler och ett mått på testlämpligheten REF.
206,416,164
A framework for specification-based testing
{'venue': 'IEEE Trans. Software Eng.', 'journal': 'IEEE Trans. Software Eng.', 'mag_field_of_study': ['Computer Science']}
11,958
Stora textdatabaser kan innehålla en stor mängd kunskap. Texten representerar emellertid faktainformation (och information om författarens kommunikativa avsikter) på ett komplext, rikt och ogenomskinligt sätt. Till skillnad från numeriska och fasta fältdata kan de därför inte analyseras med hjälp av standardiserade statistiska datautvinningsmetoder. Att förlita sig på mänskliga analyser resulterar antingen i enorma arbetsbelastningar eller i en analys av endast en liten del av databasen. Vi arbetar med textutvinningsteknik för att extrahera kunskap från mycket stora mängder textdata. Till skillnad från informationssökningsteknik som gör det möjligt för en användare att välja dokument som uppfyller användarens krav och intressen, eller dokumentklusterteknik som organiserar dokument, fokuserar vi på att hitta värdefulla mönster och regler i text som indikerar trender och viktiga funktioner om specifika ämnen. Genom att tillämpa vårt prototypsystem som heter TAKMI (Textanalys och Knowledge MIning) på textdatabaser i PC hjälpcenter, kan vi automatiskt upptäcka produktfel, avgöra problem som har lett till snabba ökningar av antalet samtal och deras underliggande skäl, och analysera hjälp centrera produktiviteten och förändringar i kundernas beteende som involverar en viss produkt, utan att läsa någon av texten. Vi har verifierat att vårt ramverk också är effektivt för andra uppgifter, t.ex. patenthandlingar. Ett textformat är ett mycket flexibelt sätt att beskriva och lagra olika typer av information, stora mängder information lagras och distribueras som text. Dessutom har mängden tillgängliga textdata ökat snabbt. Sådana uppgifter kan potentiellt innehålla en stor mängd kunskap. Men att analysera enorma mängder textdata kräver en enorm mängd arbete när det gäller att läsa hela texten och organisera innehållet. Därför har ökningen av tillgängliga textdata orsakat en informationsflod trots hopp om att bli kunnig om olika ämnen. För att övervinna denna kontraintuitiva situation, har en text gruvteknik som kallas TAKMI (Textanalys och Knowledge MIning) utvecklats för att förvärva användbar kunskap från stora mängder textdata såsom interna rapporter, olika tekniska dokument, meddelanden från olika individer, och så vidare. Den beskrivs i detta dokument. I synnerhet försöker vi analysera vad en stor uppsättning dokument tyder på som helhet snarare än att fokusera på den specifika informationen i varje dokument. Den viktigaste frågan för denna text gruvteknik är hur man representerar innehållet i textdata för att tillämpa statistisk analys. Eftersom all information som inte kan bevaras inom representationen inte kan visas i slutresultatet bör vi noggrant undersöka representationssystemets uttryckskraft. Sedan, när lämplig information extraheras ur texten, är nästa fråga hur man tillhandahåller statistisk analys. Vi bör då tillämpa lämpliga gruvfunktioner anpassade till representationerna av det ursprungliga innehållet i texten. Slutligen, eftersom innehållet i texten varierar kraftigt, är det viktigt att visualisera resultaten och tillåta en interaktiv analys för att uppfylla kraven hos analytiker som arbetar från flera synpunkter.
Projektet TAKMI (Text Analysis and Knowledge Mining) REF, som framgångsrikt har tillämpats i Call-Center-domänen för att härleda värdefulla affärsinsikter från samtalsutskrifter/loggar, bygger i hög grad på kvaliteten på call-clustering.
16,521,007
Text analysis and knowledge mining system
{'venue': 'IBM Syst. J.', 'journal': 'IBM Syst. J.', 'mag_field_of_study': ['Computer Science']}
11,959
Abstract-I detta papper, vi tar itu med problemet med bil registreringsskylt upptäckt och erkännande i naturliga scen bilder. Vi föreslår ett enhetligt djupt neuralt nätverk, som kan lokalisera registreringsskyltar och känna igen bokstäverna samtidigt i ett enda framåt pass. Hela nätverket kan tränas från början till slut. I motsats till befintliga metoder som tar registrering av registreringsskylt och erkännande som två separata uppgifter och lösa dem steg för steg, löser vår metod gemensamt dessa två uppgifter genom ett enda nätverk. Det undviker inte bara mellanliggande felackumulering utan påskyndar också processhastigheten. För utvärdering av prestanda testas fyra datauppsättningar, inklusive bilder tagna från olika scener under olika förhållanden. Omfattande experiment visar hur effektivt och ändamålsenligt vårt föreslagna tillvägagångssätt är. Index Terms-Bil platta upptäckt och igenkänning, konvolutionella neurala nätverk, återkommande neurala nätverk.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslagen metod för att gemensamt lösa detektering och igenkänning av licensplåtar genom ett enda djupt neuralt nätverk.
1,277,107
Toward End-to-End Car License Plate Detection and Recognition With Deep Neural Networks
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']}
11,960
Random Neural Network (RNN) är en återkommande neural nätverksmodell inspirerad av det spikande beteendet hos biologiska neuronala nätverk. I motsats till de flesta modeller av artificiella neurala nätverk (ANN) interagerar neuroner i RNN genom probabilistiskt utbyte av excitatoriska och hämmande signaler. Modellen beskrivs av analytiska ekvationer, har en låg komplexitet övervakad inlärningsalgoritm och är en universell approximator för avgränsade kontinuerliga funktioner. RNN har tillämpats inom en rad olika områden, bland annat mönsterigenkänning, klassificering, bildbehandling, kombinationsoptimering och kommunikationssystem. Det har också inspirerat forskningsverksamhet inom modellering av samverkande enheter i olika system såsom köande och genreglerande nätverk. I detta dokument presenteras en genomgång av teori, förlängningsmodeller, inlärningsalgoritmer och tillämpningar av RNN.
RNN har tillämpats inom en mängd olika områden inklusive mönsterigenkänning, klassificering, bildbehandling och kombinatoriska optimerings- och kommunikationssystem REF.
162,478
The Random Neural Network: A Survey
{'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']}
11,961
I neural abstraktion, den konventionella sekvens-till-sekvens (seq2seq) modellen lider ofta av upprepning och semantisk irrelevans. För att ta itu med problemet föreslår vi ett globalt ramverk för kodning, som kontrollerar informationsflödet från kodaren till dekodern baserat på den globala informationen i källsammanhanget. Den består av en konvolutionell grindenhet för att utföra global kodning för att förbättra representationerna av källsidans information. Utvärderingar på LCSTS och det engelska Gigaword båda visar att vår modell överträffar baslinjemodellerna, och analysen visar att vår modell kan generera sammanfattning av högre kvalitet och minska repetition 1.
Lin m.fl. I REF föreslås en global kodningsmodell.
13,707,541
Global Encoding for Abstractive Summarization
{'venue': 'Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)', 'journal': 'Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)', 'mag_field_of_study': ['Computer Science']}
11,962
Motgångar innebär att lägga, små, ofta omärkliga, perturbationer till ingångar med målet att få en maskin lärande modell att missklassificera dem. Medan många olika kontradiktoriska attackstrategier har föreslagits på bildklassificeringsmodeller, objektdetektering pipelines har varit mycket svårare att bryta. I detta dokument föreslår vi en ny strategi för att skapa kontradiktoriska exempel genom att lösa ett begränsat optimeringsproblem med hjälp av ett kontradiktoriskt generatornätverk. Vår strategi är snabb och skalbar, kräver bara en framfart genom vårt utbildade generatornätverk för att skapa ett kontradiktoriskt prov. Till skillnad från i många attackstrategier visar vi att samma utbildade generator är kapabel att attackera nya bilder utan att uttryckligen optimera på dem. Vi utvärderar vår attack på en tränad Snabbare R-CNN ansiktsdetektor på den beskärda 300-W ansiktsdatauppsättningen där vi lyckas minska antalet upptäckta ansikten till 0,5% av alla ursprungligen upptäckta ansikten. I ett annat experiment, även på 300-W, visar vi robustheten av vår attack till en JPEG-komprimeringsbaserad försvar typisk JPEG-komprimeringsnivå på 75% minskar effektiviteten av vår attack från endast 0,5% av upptäckta ansikten till en blygsam 5,0%.
Bose m.fl. REF angriper också framgångsrikt Faster-RCNN med kontradiktoriska exempel som skapats från deras föreslagna kontradiktoriska generatornätverk genom att lösa ett begränsat optimeringsproblem.
44,107,179
Adversarial Attacks on Face Detectors Using Neural Net Based Constrained Optimization
{'venue': '2018 IEEE 20th International Workshop on Multimedia Signal Processing (MMSP)', 'journal': '2018 IEEE 20th International Workshop on Multimedia Signal Processing (MMSP)', 'mag_field_of_study': ['Computer Science']}
11,963
Den snabba utvecklingen av mobilt Internet har gett möjlighet för WiFi inomhuspositionering att komma i fokus på grund av dess låga kostnad. Nuförtiden kan dock inte exaktheten i WiFi-positionering inomhus uppfylla kraven i praktiska tillämpningar. För att lösa detta problem, föreslår detta dokument en förbättrad WiFi inomhus positionering algoritm genom viktad fusion. Den föreslagna algoritmen är baserad på traditionella platsfingeravtrycksalgoritmer och består av två steg: förvärv offline och positionering online. Den offline förvärvsprocessen väljer optimala parametrar för att slutföra signalförvärvet, och det bildar en databas över fingeravtryck genom felklassificering och hantering. För att ytterligare förbättra positioneringens noggrannhet använder onlinepositioneringsprocessen först en förmatchningsmetod för att välja kandidatfingeravtryck för att förkorta positioneringstiden. Därefter använder man det förbättrade Euclideanavståndet och den förbättrade gemensamma sannolikheten för att beräkna två mellanliggande resultat, och ytterligare beräknar slutresultatet från dessa två mellanliggande resultat genom viktad fusion. Det förbättrade Euclideanavståndet introducerar standardavvikelsen för WiFi-signalstyrkan för att jämna ut WiFi-signalfluktuationerna och den förbättrade gemensamma sannolikheten inför den logaritmiska beräkningen för att minska skillnaden mellan sannolikhetsvärdena. Jämföra den föreslagna algoritmen, den Euclidean distansbaserade WKN-algoritmen och den gemensamma sannolikhetsalgoritmen, visar de experimentella resultaten att den föreslagna algoritmen har högre positioneringsnoggrannhet.
Mamma och Al. REF förbättrar Euclideans avstånd genom att införa standardavvikelsen för RSS för att jämna ut signalfluktuationerna.
12,783,556
An Improved WiFi Indoor Positioning Algorithm by Weighted Fusion
{'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
11,964
Nuvarande metoder för att upptäcka smittsamma utbrott ger samtidigt information om epidemins förlopp i bästa fall. Individer i centrum av ett socialt nätverk kommer sannolikt att smittas tidigare, i genomsnitt, än de i periferin. Kartläggning av ett helt nätverk för att identifiera centrala individer som ska övervaka är dock vanligtvis mycket svårt. Vi föreslår en alternativ strategi som inte kräver att man fastställer den globala nätverksstrukturen, nämligen att man övervakar vännerna till slumpmässigt utvalda individer. Sådana personer är kända för att vara mer centrala. För att bedöma om en sådan vängrupp verkligen kunde ge tidig upptäckt studerade vi ett influensautbrott vid Harvard College i slutet av 2009. Vi följde 744 elever uppdelade mellan en slumpmässig grupp och en vängrupp. Baserat på kliniska diagnoser, progression av epidemin i vängruppen inträffade 14,7 dagar (95% CI. 11.7-17.6) före den slumpmässigt utvalda gruppen (dvs. befolkningen som helhet). Vängruppen visade också en signifikant ledtid (p < 0, 05) på dag 16 av epidemin, en hel 46 dagar före den maximala dagliga incidensen i populationen som helhet. Denna sensormetod skulle kunna ge betydande ytterligare tid att reagera på epidemier hos små eller stora populationer under övervakning. Dessutom kunde metoden i princip generaliseras till andra biologiska, psykologiska, informativa eller beteenderelaterade smittämnen som spreds i nätverk. 2 Nuvarande metoder för att upptäcka smittsamma utbrott ger helst samtidig information om epidemins förlopp, men mer typiskt är att de släpar efter epidemin.(1-3) Situationen skulle dock kunna förbättras, möjligen avsevärt, om detektionsmetoder utnyttjade en potentiellt informativ egenskap hos sociala nätverk: under ett smittsamt utbrott, individer i centrum av ett nätverk är sannolikt att smittas tidigare än slumpmässiga medlemmar av befolkningen. Därför skulle en noggrann insamling av information från mänskliga sociala nätverk kunna användas för att upptäcka smittsamma utbrott innan de inträffar i den allmänna befolkningen. En smitta som stokastiskt infekterar vissa individer och sedan sprider sig från person till person i nätverket tenderar i genomsnitt att nå centralt lokaliserade individer snabbare än perifera individer eftersom centrala individer är ett mindre antal steg (grader av separation) bort från den genomsnittliga individen i nätverket (se figur 1 ).(4.5) Även om vissa smittämnen kan spridas via tillfällig kontakt, är exponeringstiden mellan människor med sociala band vanligtvis mycket högre än mellan främlingar, vilket tyder på att det sociala nätverket kommer att vara en viktig kanal för ett utbrott.(5,6) Som ett resultat av detta förväntar vi oss att den formade epidemikurvan (7, 8) flyttas till vänster (framåt i tiden) för personer som befinner sig centralt i förhållande till befolkningen som helhet (se figur 2). Detta skifte skulle, om det kunde observeras, möjliggöra tidig upptäckt av ett utbrott. Tidigare modellering forskning tyder på att vaccinering centrala individer i nätverk skulle kunna öka befolkningsnivå effektivitet av en profylaktisk intervention (9-12) och att optimal placering av sensorer i fysiska nätverk (såsom vattenpumpstationer) skulle kunna upptäcka utbrott tidigare.(13) Det är emellertid kostsamt, tidskrävande och ofta omöjligt att kartlägga ett helt nätverk för att identifiera enskilda personer som ska samla in information, särskilt för stora nät. Vi utforskar därför en ny, alternativ strategi som inte kräver att man fastställer den globala nätverksstrukturen, nämligen att kartlägga vännerna till slumpmässigt utvalda 3 personer. Denna strategi utnyttjar en intressant egenskap hos mänskliga sociala nätverk: i genomsnitt, vänner slumpmässigt utvalda människor har fler länkar (har högre grad) och är också mer centrala i nätverket än de ursprungliga, slumpmässigt utvalda personer som namngav dem.(14-18) Därför förväntar vi oss att en uppsättning nominerade vänner smittas tidigare än slumpmässigt utvalda individer (som representerar befolkningen som helhet). Vi vet att en metod som använder utsedda vänner som sensorer för tidig upptäckt av ett utbrott inte tidigare har föreslagits eller testats på något slags verkligt utbrott. För att utvärdera effektiviteten av nominerade vänner som sociala nätverkssensorer övervakade vi därför Vi rekryterade totalt 744 grundstuderande från Harvard College, upptäckte deras vänskapsband och spårade om de hade influensan från och med den 1 september 2009 (från början av det nya läsåret) till den 31 december 2009. Detta prov sattes ihop genom att empanellera två grupper av studenter av väsentligt analytiskt intresse här: ett "random" prov som valts slumpmässigt från de 6,650 Harvard grundexamen (N=319) och ett "vänner" prov (N=425) som består av individer som namngavs som en vän minst en gång av en medlem av den slumpmässiga gruppen. Dessutom, som en biprodukt av empanelling den föregående gruppen av 744 studenter, fick vi information om totalt 1.789 unikt identifierade studenter (som antingen deltog i studien eller som nominerades som vänner eller som vänner till vänner) som att dra det sociala nätverket av en del av Harvard College student organ. Vårt urval av 744 var således inbäddat i detta större nätverk av 1 789 personer (se SI för mer information). Efter att ha gett informerat samtycke fyllde alla försökspersoner i ett kort bakgrundsformulär med begäran om demografisk information, influensa och vaccinationsstatus sedan den 1 september 2009 och vissa självrapporterade mått på popularitet. Vi fick också grundläggande administrativa data från Harvard College registrar, såsom sex, klass av inskrivning, och sport deltagande. Vi spårade fall av formellt diagnostiserad influensa bland studenterna i vårt urval som registrerats av University Health Services (UHS) med början den 1 september 2009 till 31 december 2009. Att presentera för hälso-och sjukvården tyder naturligtvis på en allvarligare nivå av symptomatologi, och därför förväntar vi oss inte samma totala prevalens med hjälp av denna diagnostiska standard som med självrapporterad influensa diskuteras nedan. UHS-data ger dock fördelen att vi kan få information om influensasymtom som bedömts av sjukvårdspersonal. Från och med den 23 oktober 2009 samlade vi också in information om självrapporterade influensasymtom från deltagarna via e-post två gånger per vecka (på måndagar och torsdagar), som pågick till och med den 31 december 2009. Studenterna tillfrågades om de hade haft feber eller influensasymtom sedan den senaste e-postkontakten, och det saknades mycket lite data (47 % av försökspersonerna avslutade alla enkäter varannan vecka, och 90 % missade inte mer än två av enkäterna). Självrapportering av symtom snarare än serologisk testning är den nuvarande standarden för influensadiagnos. Likt tidigare studier, (22) studenter ansågs ha ett fall av influensa (oavsett säsong eller H1N1 sorten) om de rapporterade har en feber på mer än 100 ̊ F (37,8 ̊ C) och minst två av följande symtom: ont i halsen; hosta; täppt eller rinnande näsa; kroppsvärk; huvudvärk; frossa; eller trötthet. Vi kontrollerade känsligheten hos våra fynd med hjälp av definitioner av influensa som krävde fler symptom, och våra resultat förändrades inte (se SI). Som en del av de fem tidigare två veckor långa självrapporterna, för att komplettera UHS vaccinationsjournalerna, fastställde vi också om studenterna rapporterade att de hade vaccinerats (med säsongsinfluensavaccin eller H1N1-vaccin eller både och) på andra platser än (och inklusive) UHS. Den 31 december 2009 var den kumulativa förekomsten av influensa i vårt prov 8% baserat på diagnoser av medicinsk personal, och det var 32% baserat på självrapporter, som speglade andra studier av skolbaserade utbrott och även nyligen nationella uppskattningar för college-studenter befolkningen.(22,23) Som förväntat var prevalensen högre enligt den senare standarden. Vi studerade sambandet mellan flera demografiska och andra variabler med kumulativ influensaincidens på dag 122 (den sista dagen för uppföljning) för att se om de förutspådde en ökning av den totala risken. Ingen av dessa variabler var signifikant förknippad med influensadiagnoser av medicinsk personal (se SI), så vi fokuserade på effekten av dessa variabler på förändringar i tidpunkten för distributionen. Som hypotes, den kumulativa incidensen kurvor för vängruppen och den slumpmässiga gruppen avvika och sedan konvergera (Figur 3 ). NLS uppskattningar tyder på att vänner kurvan för influensa diagnostiseras av medicinsk personal förskjuts 14,7 dagar framåt i tiden (95% CI. 11.7-17.6), vilket ger tidig upptäckt. Detta motsvarar cirka 65 % av en standardavvikelse i tiden för händelsen i hela provet. Resultaten tyder också på en signifikant men mindre förändring av självrapporterade influensasymtom (3,2 dagar, 95 % CI). (se avsnitt 2.2–4.3). I både kliniska och självrapporterade diagnostiska standarder är uppskattningarna robusta till ett antal kontrollvariabler inklusive H1N1-vaccination, säsongsinfluensavaccination, sex, collegeklass och varsity-idrottsdeltagande (se SI). Ovanstående uppskattningar bygger på fullständig information i efterhand, men vi undrade när det också skulle vara möjligt att upptäcka en skillnad i vängruppen och den slumpmässiga gruppen i realtid, med tanke på mindre fullständiga data. Vi uppskattade därför modellerna varje dag med hjälp av all tillgänglig information fram till den dagen. För influensadiagnoser av medicinsk personal visade vängruppen en signifikant ledtid (p < 0, 05) på dag 16, en hel 46 dagar före den uppskattade maximala dagliga 6 incidensen vid besök på hälso- och sjukvården. För självrapporterade influensasymtom visade vängruppen en signifikant ledtid dag 39, vilket är 83 dagar före den uppskattade maximala dagliga incidensen av självrapporterade symtom. En jämförelse av resultaten hos vänner och slumpmässigt utvalda individer kan därför vara en ytterligare effektiv teknik för att upptäcka utbrott i ett tidigt skede av en epidemi. Ett möjligt alternativ till vänskapsnomineringsförfarandet skulle vara att förlita sig på självrapporterad popularitet eller självrapporterade antal vänner för att identifiera en högriskgrupp. Vi mätte våra försökspersoners självuppfattningar av popularitet med en åttapunktsskala, men detta gav inte en betydande förskjutning framåt i tiden för influensadiagnoser (se SI). Kontroll för självrapporterad popularitet ändrade inte heller betydelsen av den ledtid som tillhandahålls av vängruppen för antingen influensadiagnoser av medicinsk personal eller självrapporterade influensasymtom. Dessa resultat tyder på att bli nominerad som vän fångar mer nätverksinformation (inklusive tendensen att vara central i nätverket) än självrapporterade nätverksattribut. Även om den metod som beskrivs här inte kräver information om hela nätverket, vår undersökning ägde rum på ett college campus där många nominatorer själva nominerades, och samma person ofta nominerades flera gånger. Som ett resultat, en ansluten komponent av 714 personer dök upp ur 1.789 unika individer som antingen tillfrågades eller identifierades som vänner av dem som deltog i studien. Vi illustrerar spridningen av influensa i denna komponent i Figur 4, som visar tendensen av influensa till "bloom" i mer centrala noder i nätverket, och även i en 122-ram film av daglig influensa prevalens som finns på nätet (se SI). Provtagning av en tätt sammankopplad befolkning gjorde det också möjligt för oss att mäta egocentriska nätverksegenskaper som in-grad (antal gånger ett ämne nominerades som en vän), mellanhet centralitet (antalet kortaste vägar i nätverket som passerar genom en individ) och transitivitet (sannolikheten att två av ens vänner är vänner med varandra). Resultaten visade att vängruppen, som förväntat, skilde sig avsevärt från den 7 slumpmässiga gruppen för alla dessa åtgärder, uppvisade högre grad (Mann Whitney U test p < 0,001), högre centralitet (p <0.001) och lägre transitivitet (p=0,039). Vi antog att var och en av dessa åtgärder skulle kunna bidra till att identifiera grupper som skulle kunna användas som sociala nätverkssensorer när fullständig nätverksinformation faktiskt finns tillgänglig (se figur 5). Till exempel förväntar vi oss in-grad att förknippas med tidig smitta eftersom fler vänner betyder fler vägar till andra i nätverket som kan vara smittade. NLS uppskattningar tyder på att varje ytterligare nominering ändrar influensakurvan kvar med 5,6 dagar (95% CI. 3,6-8.1) för influensadiagnoser hos sjukvårdspersonal och 8,0 dagar (95% CI. 7.3-8.5) för självrapporterade symtom. Å andra sidan, samma gäller inte för ut-grad (antalet vänner en person namn); relevant är att detta är den enda mängd som skulle vara enkelt att fastställa genom att fråga respondenter om sig själva. Det finns dock små skillnader i denna åtgärd i den nuvarande situationen eftersom de flesta människor namngav tre vänner. Vi förväntar oss också att mellanhetens centralitet förknippas med tidig smitta. NLS uppskattningar tyder på att individer med maximal observerad centralitet skiftar influensakurvan kvar med 16,5 dagar (95% CI. 1,9-28,3) för influensadiagnoser av sjukvårdspersonal och 22,9 dagar (95% CI. 20,0-27,2) för självrapporterade symtom, i förhållande till dem med minimal centralitet. Dessutom är centraliteten fortfarande betydande även när man kontrollerar för både in-grad och ut-grad, vilket antyder att det inte bara är antalet vänner som är viktigt, utan också antalet vänner, vänner till vänner, och så vidare. Slutligen förväntar vi oss att transitiviteten är negativt förknippad med tidig smitta. Människor med hög transitivitet kan vara dåligt anslutna till resten av nätverket eftersom deras vänner tenderar att känna varandra och finns i en tätt sammansvetsad grupp. Däremot tenderar de med låg transitivitet att vara kopplade till många olika, oberoende grupper, och varje ytterligare grupp ökar möjligheten att någon i den gruppen har influensa och att den sprider sig till ämnet. NLS uppskattningar tyder på att individer med minsta observerade transitivitet skiftar influensakurvan kvar med 31,9 dagar (95% CI. 23, 5- 43, 5) för influensadiagnoser hos sjukvårdspersonal och 15, 0 dagar 8 (95% CI. 12,7-18,5) för självrapporterade symtom jämfört med de med maximal transitivitet. Transitiviteten är dessutom fortfarande betydande även vid kontroll av både in-grad och utgrad. För många smittsamma sjukdomar är tidig kunskap om när - eller om - en epidemi utvecklas avgörande för beslutsfattare och folkhälsotjänstemän som ansvarar för definierade populationer, oavsett om de är små eller stora. Faktum är att när det gäller influensa, modeller som bedömer effekterna av profylaktisk vaccinering i en metropol som New York City tyder på att vaccinering ens en tredjedel av befolkningen skulle rädda liv och förkorta epidemins förlopp, men bara om den genomförs en månad tidigare än vanligt.(24,25) En sådan metod som den som beskrivs här skulle kunna bidra till en sådan tidig varning. I själva verket skulle denna metod kunna användas för att övervaka målpopulationer av alla storlekar i realtid. Till exempel kan en hälso- och sjukvårdstjänst vid ett universitet (eller annan institution) emanera ett urval av ämnen som utses till vänner och som samtycker till att passivt övervakas för sin hälso- och sjukvård; en spik i fall i denna grupp kan läsas som en varning för ett förestående utbrott. Folkhälsotjänstemän med ansvar för en stad kunde empanel ett urval slumpmässigt utvalda individer och ett urval av nominerade vänner (kanske tusen personer i alla) som har gått med på att rapportera sina symtom med hjälp av korta, periodiska textmeddelanden eller ett online undersökningssystem (som den anställd här). Regionala eller nationella populationer kan också övervakas på detta sätt, med ett urval av nominerade vänner som regelbundet undersöks i stället för, eller som tillägg till, ett slumpmässigt urval av människor (som vanligtvis är normen). Eftersom folkhälsotjänstemän ofta övervakar befolkningsgrupper i vilket fall som helst, skulle den förändring i praktiken som krävs för att övervaka ett urval av dessa mer centrala individer inte vara alltför betungande. Även om tjänstemän som är ansvariga för en enda, relativt liten institution möjligen aktivt skulle kunna söka efter centrala individer för att vaccinera dem (därför att de potentiellt förvirrar 9 sådana individers nytta som sensorer), är det osannolikt att en sådan vaccinationsinsats skulle inledas med ett regionalt eller nationellt prov, med tanke på den sannolika orelevansen av att vaccinera de faktiska sensorprovsmedlemmarna som ett sätt att kontrollera en omfattande epidemi. Skillnaden i tidpunkten för epidemins förlopp hos vänner och slumpmässiga grupper skulle kunna utnyttjas på minst två olika sätt. För det första, om endast vänner gruppen övervakas, en analytiker spårning ett utbrott kan leta efter de första bevisen för att förekomsten av patogenen bland vänner gruppen steg över en förutbestämd hastighet (t.ex. en märkbar ökning över en noll bakgrundsfrekvens); detta i sig kan tyda på en förestående epidemi. För det andra, i en strategi som skulle ge mer information, analytikern kunde spåra både ett urval av vänner och ett urval av slumpmässiga försökspersoner, och förebud om en epidemi kan antas vara när de två kurvorna sågs först avvika från varandra. Särskilt när det gäller spridning av andra smittämnen än biologiska patogener ger skillnaden mellan dessa två kurvor ytterligare information: adoptionskurvan bland det slumpmässiga urvalet ger belägg för sekulära trender i befolkningen, medan skillnaden mellan de två kurvorna ger belägg för en nätverkseffekt, utöver epidemins baslinjekraft. Även om vårt mål här var att utvärdera hur metoden att undersöka vänner kunde ge tidig upptäckt av smittsamma utbrott i allmänhet, är det värt att notera att i det specifika fallet med influensa, den metod vi utvärderade verkar ge längre ledtider än andra extanta metoder för att övervaka influensaepidemier. Nuvarande övervakningsmetoder för influensa, t.ex. de som genomförs av CDC som kräver insamling av data från patienter som söker öppenvård eller genomgår laborationer, släpar vanligtvis efter i fråga om tidpunkten för epidemin (informationen ligger vanligtvis en till två veckor efter själva kursen).(1) Ett förslag om att använda Google Trender för att övervaka sökningar efter information om influensa tyder på att detta tillvägagångssätt skulle kunna erbjuda en bättre indikator, vilket ger belägg för ett utbrott minst en vecka innan publicerade CDC-rapporter.(2,3) Men även om potentiellt ögonblicklig, Google Trends metoden skulle bara, i bästa fall, ge samtidig information om frekvensen av infektion (plus, sök algoritmen skulle behöva 10 anpassas för varje patogen av intresse). Däremot visar vi att den här beskrivna sensormetoden kan upptäcka ett utbrott av influensa två veckor i förväg. Det vill säga, sensornätverksmetoden ger tidig upptäckt snarare än bara snabb varning. Dessutom kan sensormetoden användas i samband med onlinesökning. Genom att följa en vängrupps beteende online, eller en grupp som är känd för att vara central i ett nätverk (till exempel baserat på e-postposter som kan användas för att rekonstruera sociala nätverk), Google eller andra sökmotorer kan få högkvalitativ information i realtid om epidemin med ännu större ledtid, vilket ger folkhälsotjänstemän ännu mer tid att planera ett svar. Hur långt framskriden detektion skulle uppnås för andra patogener eller i populationer av större storlek eller annan sammansättning är fortfarande okänt. Förmågan hos den föreslagna metoden att upptäcka utbrott tidigt, och hur tidigt den kan göra det, kommer att bero på inneboende egenskaper hos det som sprids (t.ex. patogenens biologi); hur det mäts; arten av befolkningen, inklusive den totala prevalensen av mottagliga eller drabbade individer; antalet personer som empanelleras in i sensorgruppen; nätets topologi (t.ex. gradens fördelning och dess varians, eller andra strukturella attribut;(26) och andra faktorer, t.ex. om utbrottet ändrar nätverkets struktur när det sprids (t.ex. genom att döda människor i nätverket, eller, när det gäller att sprida information, kanske genom att påverka tendensen hos två individer att förbli anslutna efter att informationen överförs). Medan den sociala nätverkssensorstrategin har illustrerats med ett särskilt utbrott (flu) i en viss population (kollegestudenter), kan den potentiellt generaliseras till andra fenomen som sprider sig i nätverk, vare sig biologiska (antibiotikaresistenta bakterier), psykologiska (depression), normativa (altruism),(27) informationella (rummor), eller beteendemässiga (rökning).(28) Utbrott av en mängd olika skadliga eller önskvärda förhållanden skulle kunna upptäckas innan de har nått en kritisk tröskel i befolkningsgrupper av intresse. 11 För att mäta självupplevd popularitet anpassade vi en uppsättning av 8 frågor som tidigare använts för att bedöma medarbetarnas popularitet. (29) Vi använde vänskapsnomineringar för att mäta in-grad (antalet gånger en individ namnges som en vän av andra individer) och ut-grad (antalet individer varje person namn som en vän) för varje ämne. In-graden är praktiskt taget obegränsad (det teoretiska maximum är N -1, det totala antalet andra personer i nätverket) men utgraden är begränsad till högst 3, med tanke på hur vi framkallade vänskapsinformation. Vi mätte mellanhet centralitet, som identifierar i vilken utsträckning en individ ligger på potentiella vägar för smitta som går från en individ till en annan genom nätverket; denna kvantitet sammanfattar hur central en individ är i nätverket (se figur 1). (30) Vi mätte transitiviteten som den empiriska sannolikheten att två av ett försökspersonens vänner också är vänner med varandra och bildar en triangel (se figur 1 ). Denna åtgärd är bara det totala antalet trianglar av band mellan en individ och hans eller hennes sociala kontakter dividerat med det totala möjliga antalet trianglar. Vi använde Pajek (31) för att rita tvådimensionella bilder av nätverket, och vi implementerade Kamada-Kawai algoritmen, som genererar en matris av kortaste nätverksväg avstånd från varje nod till alla andra noder i nätverket och ändrar position noder i en bild för att minska summan av skillnaden mellan de plottade avstånden och nätverksavstånden.(32) En film om spridningen av influensa med en ram för var och en av de 122 dagarna av studien finns tillgänglig online (se SI). Vi beräknade den kumulativa influensaincidensen för både vängruppen och den slumpmässiga gruppen med hjälp av en icke-parametrisk uppskattning av maximal sannolikhet (NPMLE). (33) Vi beräknade också den förväntade dagliga incidensen med hjälp av ett skattningsförfarande som är utformat för att mäta tidsförskjutningen för ett smittsamt utbrott i samband med en given oberoende variabel (se SI). I detta förfarande passar vi den observerade sannolikheten för influensa till en kumulativ logistisk funktion via icke-linjär minsta kvadrat (NLS) uppskattning.(34) För att härleda standardfel och 95% konfidensintervall, använde vi 12 en bootstrappning förfarande där vi upprepade gånger samplade subjekt observationer med ersättning och omvärderade passformen. (35) Detta förfarande gav en något bredare konfidensintervall än de som bygger på asymptotiska approximationer, så vi rapporterar bara de mer konservativa uppskattningarna av kängor. Slutligen beräknade vi hur många dagar av tidig upptäckt som var möjligt för grupper med olika nätverksattribut genom att multiplicera koefficienten och konfidensintervallen i ovanstående modeller med den genomsnittliga skillnaden mellan gruppen över genomsnittet och gruppen under genomsnittet (se SI).
Det är värt att notera att strukturen i ett socialt diagram också kan studeras i samband med smittsamma sjukdomsutbrott REF.
6,096,755
Social Network Sensors for Early Detection of Contagious Outbreaks
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Physics', 'Biology']}
11,965
Vi anser att problemet med att lära allmänna ändamål, parafrastiska mening inbäddningar baserat på övervakning från Parafrasdatabasen (Ganitkevitch et al., 2013). Vi jämför sex kompositionsarkitekturer och utvärderar dem på annoterade textliknande datauppsättningar hämtade både från samma distribution som träningsdata och från ett brett spektrum av andra domäner. Vi finner att de mest komplexa arkitekturer, såsom långtidsminne (LSTM) återkommande neurala nätverk, presterar bäst på in-domain data. Emellertid, i out-of-domain scenarier, enkla arkitekturer såsom ord i genomsnitt mycket bättre än LSTMs. Vår enklaste genomsnittsmodell är även konkurrenskraftig med system anpassade för de specifika uppgifterna samtidigt som den är extremt effektiv och enkel att använda. För att bättre förstå hur dessa arkitekturer jämför utför vi ytterligare experiment på tre övervakade NLP-uppgifter: meningslikhet, förnimmelse och känsloklassificering. Vi finner återigen att ordet medelvärde modeller fungerar bra för mening likhet och inbegripenhet, outperforming LSTMs. När det gäller känsloklassificeringen finner vi dock att LSTM mycket starkt till och med spelar in nya toppmoderna prestationer på Stanford Sentiment Treebank. Vi visar sedan hur vi kombinerar våra förtränade straff inbäddningar med dessa övervakade uppgifter, använder dem både som en tidigare och som en svart låda funktionsextraktor. Detta leder till prestanda rivaliserande state of the art on the SICK likhet och utförande uppgifter. Vi släpper alla våra resurser till forskarsamhället 1 med förhoppningen att de kan fungera som den nya utgångspunkten för ytterligare arbete med universella meningar.
Ref har visat att ett enkelt men övervakat ord i genomsnitt modell för mening inbäddningar leder till bättre prestanda på parafras par data uppsättning (PPDB).
5,882,977
Towards Universal Paraphrastic Sentence Embeddings
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
11,966
Abstract-Målet med detta papper är att fastställa med vilken exakt riktning Bitcoin priset i USD kan förutspås. Prisuppgifterna hämtas från Bitcoin Price Index. Uppgiften uppnås med varierande grad av framgång genom införandet av ett Bayesian optimerat återkommande neurala nätverk (RNN) och ett Long Short Term Memory (LSTM) nätverk. LSTM uppnår den högsta klassificeringsnoggrannheten på 52% och en RMSE på 8%. Den populära ARIMA-modellen för tidsserieprognoser genomförs som en jämförelse med modellerna för djupinlärning. Som förväntat överträffar de icke-linjära djupinlärningsmetoderna ARIMA-prognosen som fungerar dåligt. Slutligen, båda deep learning modeller är riktvärden på både en GPU och en CPU med utbildningstiden på GPU överträffar CPU genomförande med 67,7%.
McNanny m.fl. REF har använt återkommande neurala nätverk (RNN), lång kort tid minne (LSTM) nätverk och ARIMA-modell för att förutsäga riktningen för Bitcoin priset i USD.
206,505,441
Predicting the Price of Bitcoin Using Machine Learning
{'venue': '2018 26th Euromicro International Conference on Parallel, Distributed and Network-based Processing (PDP)', 'journal': '2018 26th Euromicro International Conference on Parallel, Distributed and Network-based Processing (PDP)', 'mag_field_of_study': ['Computer Science']}
11,967
Abstract-In co-manipulation löser människor och robotar manipulationsuppgifter tillsammans. Virtuella guider är viktiga verktyg för samhantering, eftersom de begränsar robotens rörelse för att undvika oönskade effekter, såsom kollisioner med miljön. Att definiera virtuella guider är ofta en mödosam uppgift som kräver expertkunskap. Detta begränsar nyttan av virtuella guider i miljöer där nya uppgifter kan behöva lösas, eller där flera uppgifter måste lösas sekventiellt, men i en okänd ordning. I detta syfte föreslår vi en ram för flera probabilistiska virtuella guider, och visar ett konkret genomförande av sådana guider med hjälp av kinetisk undervisning och Gaussiska blandningsmodeller. Vårt tillvägagångssätt gör det möjligt för användare som inte är experter att utforma virtuella guider genom demonstration. De kan också visa upp nya guider, även om redan kända guider är aktiva. Slutligen kan användarna intuitivt välja lämplig guide från en uppsättning guider genom fysisk interaktion med roboten. Vi utvärderar vår strategi i en pick-and-place uppgift, där användarna ska placera objekt på en av flera positioner i ett skåp.
I arbetet i REF föreslås till exempel en metod för modellering av virtuella guider i exempel på sammanipulering.
16,795,137
Co-manipulation with multiple probabilistic virtual guides
{'venue': '2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science']}
11,969
Informationsasymmetri är ett centralt problem i både datavetenskap och ekonomi. I många grundläggande problem vill en oinformerad rektor skaffa sig viss kunskap från en opålitlig expert. Detta modellerar flera verkliga situationer, såsom en chefs relation med sina anställda, eller delegering av beräkningsuppgifter i mekanisk turk. Eftersom experten är opålitlig, behöver huvudmannen en viss garanti för att den kunskap som ges är korrekt. Inom datavetenskapen ges denna garanti vanligtvis via ett bevis som huvudmannen kan verifiera. En oärlig expert kommer därför att bli fångad och straffad (med mycket stor sannolikhet). I många ekonomiska sammanhang ges vanligen garantier för att kunskapen är korrekt via incitament. Det vill säga, ett spel spelas mellan expert och rektor så att experten maximerar hennes nytta genom att vara ärlig. Ett rationellt bevis är ett interaktivt bevis där bevisaren, Merlin, varken är ärlig eller illvillig, utan rationell. Det vill säga, Merlin agerar för att maximera sin egen nytta. Rationella bevis har tidigare studerats när kontrollören, Arthur, är en probabilistisk polynomtidsmaskin [1]. I denna uppsats studerar vi supereffektiva rationella bevis, det vill säga rationella bevis där Arthur kör i logaritmisk tid. Våra nya rationella bevis är mycket praktiska. De är inte bara mycket snabbare än sina klassiska analoger, utan de ger också mycket påtagliga incitament för experten att vara ärlig. Arthur behöver bara en polynom-budget, men han kan straffa Merlin med en stor mängd om han avviker från sanningen. Vi ger följande karakteriseringar av vilka problem medger supereffektiva rationella bevis. (1) Enhetlig T C 0 sammanfaller med den uppsättning språk L som medger ett rationellt bevis med hjälp av O(log n) tid, O(log n) kommunikation, ett konstant antal rundor och en polynom storlek budget. (2) P N P sammanfaller med den uppsättning språk som har ett rationellt bevis med hjälp av O(log n) tid, poly(n) kommunikation, en runda och en polynom storlek budget. Dessutom visar vi att när Arthur är begränsad till att ha en polynom-storlek budget, den uppsättning språk som medger rationella bevis med polynom tidverifiering, polynom kommunikation och en runda är P A
I ett uppföljningsarbete REF, författarna designar super-effektiva rationella bevis som har sublinjär verifiering och beräkning tvingarexitet.
5,337,033
Super-efficient rational proofs
{'venue': "EC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,970
Abstract-Event matchning är en kritisk komponent i storskaliga innehållsbaserade publicerings-/prenumerationssystem. Men de flesta befintliga metoder lider av en dramatisk prestandanedbrytning när systemet skalas upp. I det här dokumentet presenterar vi TAMA (TAble MAtch), en mycket effektiv innehållsbaserad händelsematchnings- och speditionsmotor. Vi anser att områdesbaserade attributbegränsningar som används i stor utsträckning i verkliga tillämpningar. TAMA har ungefärlig matchning för att ge snabb händelsematchning mot en enorm mängd abonnemang. I detta syfte använder TAMA en hierarkisk indextabell för att lagra abonnemang. Eventmatchning i TAMA blir frågan till denna tabell, vilket är betydligt snabbare än traditionella metoder. Dessutom kan den falska positiva frekvensen av matchande händelser i TAMA justeras genom att justera storleken på matchningstabellen, vilket gör TAMA gynnsamt i praktiken. Vi implementerar TAMA som en vidarebefordringskomponent i Siena och genomför omfattande experiment med realistiska inställningar. Resultaten visar att TAMA har en betydligt snabbare händelsematchningshastighet jämfört med befintliga metoder, och endast ådrar sig en liten del av falska positiva effekter. Index Terms-Content-baserad publicering/prenumeration, ungefärlig händelsematchning, Booleskt uttryck, attributbegränsning.
Zhao och Wu REF studerar dessutom ungefärlig händelsebehandling i ett innehållsbaserat publicerings-/prenumerationssystem och föreslår en hierarkisk indextabell för att lagra prenumerationer och ge ungefärliga svar.
7,214,608
Towards Approximate Event Processing in a Large-Scale Content-Based Network
{'venue': '2011 31st International Conference on Distributed Computing Systems', 'journal': '2011 31st International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
11,971
- Vad är det med dig? Detta har praktiserats i både CMP [7, 10, 31] och evolutionen av mikroprocessorer har hindrats av deras enkärniga processorer [14, 22, 23]. Vårt arbete fortsätter med att öka energiförbrukningen och värmeproduktionens hastighetsrektion av forskningen. På-dö. Hög temperatur försämrar processorns tillförlitlighet och vi utvecklar en heuristisk schemaläggningsalgoritm för att minska livslängden. Medan hårdvara nivå dynamisk termiskt man-termiskt tryck av en processor. Vår algoritm ThreshHot är ålder (DTM) tekniker, såsom spänning och frekvens scal-baserade på observationen att, med tanke på två jobb, en varm och en ing, effektivt kan sänka chip temperaturen när det överträffar cool, utföra det heta jobbet innan den svala resulterar i en lägre värmetröskel, de oundvikligen kommer till priset avperfor-sluttemperaturen än efter den omvända ordningen. Så länge som mansförnedring. att utföra den heta jobbet i sig inte bryter mot den termiska trösk- Vi föreslår en OS-nivå teknik som utför termiskt gamla, den varma-kall ordning är bättre (eller åtminstone inte sämre) än den medvetna jobb schemaläggning för att minska antalet termiska tres-kall-hold ordning. Följaktligen väljer ThreeshHot vid varje steg passerar. Vår schemaläggare minskar mängden hårdvara DTMs det hetaste jobbet som inte överskrider den termiska tröskeln. och uppnår högre prestanda samtidigt som temperaturen ThreshHot överträffar andra schemaläggningsalgoritmer såsom låg. Våra metoder utnyttjar de naturliga diskrepanserna i den som ändrar de prioriterade leden av det heta och svala beteendet bland olika arbetsbelastningar, och schemalägger dem till jobb [22]. Att veta vilket jobb kommer att vara varmt eller coolt för att hålla chip temperaturen under en given budget. Vi utvecklar hotspot, vi utvecklar en mycket effektiv on-line temperatur estia heuristisk algoritm baserat på observationen att det finns en mator som utnyttjar prestanda motbaserad effekt estimadity i den resulterande temperaturen när en varm och en kylning [19, 20, 22], kompakt termisk modellering [35], och en snabb temjob utförs i en annan ordning För att utvärdera vår schedul-perature lösare [12]. Vi implementerade estimatorn för en Pening-algoritmer, vi utvecklade en lätt runtime temperatur tium 4 processor, även om vår allmänna metod är applicamonitor för att möjliggöra informerade schemaläggning beslut. Vi har ogenomträngliga för andra processorer som CMP. Vi kalibrerar och validerar plementerade vår schemaläggningsalgoritm och hela temperaturen modellparametrarna mot verkliga mätningar på vårt ramverk för processövervakning i Linuxkärnan. Vårt föreslagna sched-sor-paket. Vi implementerade också vår schemaläggning heuristics i uler kan ta bort 10.5-73,6% av hårdvaran DTMs i olika Linuxkärnan, tillsammans med vår temperaturuppskattning, och kombinationer av arbetsbelastningar i en medium termisk miljö. Vi testade hela ramverket över de fullständiga utförandena av Som ett resultat, CPU-genomströmning förbättrades med upp till 7,6% SPEC CPU2K riktmärken, mediabench, packetbench och net-(4.1% i genomsnitt) även under en svår termisk miljö. bänk. ThreshHot kan ta bort upp till 73,6% (34,5% i genomsnitt) hårdvara DTM i en medelvärmemiljö. Med alla 1 Inledning
Forskare har också undersökt OS-nivå tekniker såsom termisk-medveten uppgift schemaläggning för att minimera hårdvara DTM (dynamisk värmehantering tekniker som frekvens och spänningsskalning) REF.
9,268,182
Dynamic Thermal Management through Task Scheduling
{'venue': 'ISPASS 2008 - IEEE International Symposium on Performance Analysis of Systems and software', 'journal': 'ISPASS 2008 - IEEE International Symposium on Performance Analysis of Systems and software', 'mag_field_of_study': ['Computer Science']}
11,972
Med tanke på en triangulation G, vars vertex uppsättning V är en uppsättning n punkter i planet, och med tanke på ett reellt antal γ med 0 < γ < π, designar vi en O (n)-tids algoritm som konstruerar en ansluten subgraf G av G med vertex set V vars maximala grad är högst 14 + 2π/γ. Om G är Delaunay triangulation av V, och γ = 2π/3, visar vi att G är en t-spanner av V (för vissa konstant t) med maximal grad på högst 17, vilket förbättrar den tidigare mest kända graden bundet av 23. Om G är en triangulation som uppfyller diamanten egenskap, då för ett specifikt intervall av värden av γ beroende på vinkeln på diamanterna, visar vi att G är en t-spanner av V (för vissa konstant t) vars högsta grad begränsas av en konstant beroende på γ. Om G är grafen som består av alla Delaunay kanter av längd högst 1, och γ = π/3, visar vi att en modifierad version av algoritmen producerar en plan subgraph G av enhet-disk grafen som är en t-spanner (för vissa konstant t) av den enhet-disk grafen av V, vars maximala grad är högst 20, vilket förbättrar den tidigare mest kända graden bundet av 25.
I REF presenteras en O(n)-tidsalgoritm som konstruerar en ansluten subgraf av en given triangulation vars maximala grad är högst 14 + för ett givet reellt tal γ, där 0 < γ < π.
12,373,626
Delaunay and Diamond Triangulations Contain Spanners of Bounded Degree
{'venue': 'Int. J. Comput. Geometry Appl.', 'journal': 'Int. J. Comput. Geometry Appl.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,973
Abstract-Framtida fordonssystem för aktiv fotgängarsäkerhet kommer inte bara att kräva en hög igenkänningsprestanda utan också en noggrann analys av den trafiksituation som utvecklas. I detta dokument presenterar vi en studie om fotgängarbanans förutsägelse och åtgärdsklassificering med korta subsekundsintervaller. Vi betraktar fyra representativa tillvägagångssätt: två nya tillvägagångssätt (baserat på Gaussiska processdynamiska modeller och probabilistisk hierarkisk bana matchning) som använder utökade funktioner som härrör från tätt optiskt flöde och två tillvägagångssätt som baslinje som endast använder positionsinformation (ett Kalman filter och dess utvidgning till att interagera flera modeller). I experiment med hjälp av stereoseendedata som erhållits från ett fordon undersöker vi exaktheten i vägförutsägelse och åtgärdsklassificering vid olika tidshorisonter, effekten av olika fel (bildlokalisering, fordonsegomotionsuppskattning) och nyttan av de föreslagna tillvägagångssätten. Scenariot av intresse är en korsning fotgängare, som kan stanna eller fortsätta att gå vid trottoarkanten. Resultaten indikerar liknande prestanda hos de fyra tillvägagångssätten för gångrörelser, med nästan linjär dynamik. Under stopp, dock, de två nya föreslagna tillvägagångssätt, med icke-linjära och / eller högre ordning modeller och utökade rörelse funktioner, uppnå en mer exakt positionsförutsägelse på 10-50 cm vid en tidshorisont på 0-0,77 s runt stopp händelsen.
En kombination av Gaussian Process Dynamical Models, Probabilistic Hierarchical Trajectory Machine med Kalman Filter och interactive Multiple Model-baserat på Daimler data set med hjälp av stereobilder visas i REF.
53,475
Will the Pedestrian Cross? A Study on Pedestrian Path Prediction
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering']}
11,974
Generera svar med naturligt språk mening är mycket viktigt i verkliga frågor svarssystem, som behöver få ett rätt svar samt en sammanhängande naturlig svar. I detta dokument föreslår vi ett end-to-end-svarssystem som kallas CoreQA i sekvens-till-sekvens-inlärning, som innehåller kopierings- och insamlingsmekanismer för att generera naturliga svar inom ramen för en kodare-avkodare. I COREQA förutspås de semantiska enheterna (ord, fraser och enheter) i ett naturligt svar dynamiskt från vokabulären, kopieras från den givna frågan och/eller hämtas från motsvarande kunskapsbas gemensamt. Vår empiriska studie om både syntetiska och verkliga datauppsättningar visar CoreQA:s effektivitet, som kan generera korrekta, sammanhängande och naturliga svar på frågor om kunskap.
REF innehåller kopierings- och insamlingsmekanismer för att ta hänsyn till flera fakta för att generera ett svar på en komplex fråga.
43,225,062
Generating Natural Answers by Incorporating Copying and Retrieving Mechanisms in Sequence-to-Sequence Learning
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,975
De Bruijn grafer är en gemensam sammansättning datastruktur för stora sekvensering datauppsättningar. Men med de framsteg som gjorts när det gäller sekvensering av teknologier har det blivit en utmaning att sammanställa dataset med hög täckning. Läs normalisering, som tar bort redundans i stora datauppsättningar, tillämpas i stor utsträckning för att minska resursbehov. Nuvarande normaliseringsalgoritmer, om än effektiva, ger ingen garanti för att bevara viktiga k-mers som bildar kopplingar mellan regioner i grafen. Här formuleras normalisering som en uppsättning multi-cover problem på avläsningar och en heuristisk algoritm, ORNA, föreslås. ORNA normaliserar till det minsta antalet avläsningar som krävs för att behålla alla k-mers och deras relativa kmer överflöd från den ursprungliga datauppsättningen. Därför bevaras alla anslutningar och täckningsinformation från den ursprungliga grafen. ORNA testades på olika RNA-seq-datauppsättningar med olika täckningsvärden. Den jämfördes med de nuvarande normaliseringsalgoritmerna och visade sig prestera bättre. Det visas att kombinera läsa felkorrigering och normalisering tillåter mer exakt och resurseffektiv RNA-enheter jämfört med den ursprungliga datauppsättningen. Vidare föreslogs en ansökan där flera datauppsättningar kombinerades och normaliserades för att förutsäga nya transkript som annars skulle ha missats. Slutligen, ORNA är en allmän syfte normalisering algoritm som är snabb och signifikant minskar dataset med liten förlust av monteringskvalitet. ORNA finns under https://github.com/SchulzLab/ORNA
ORNA REF presenterar en ny och intressant metod som normaliserar korta avläsningar till minsta nödvändiga mängd för att bevara viktiga k-mers som ansluter olika regioner av monteringsgrafen.
90,774,518
In-silico read normalization using set multi-cover optimization
{'venue': None, 'journal': 'bioRxiv', 'mag_field_of_study': ['Biology']}
11,976
Abstract-Attribute-baserad signatur (ABS) gör det möjligt för användare att logga meddelanden över attribut utan att avslöja någon annan information än det faktum att de har intygat för meddelanden. Emellertid krävs tunga beräkningskostnader vid signering i befintligt arbete av ABS, som växer linjärt med storleken på den predikat formel. Detta innebär en stor utmaning för resursanslutna enheter (t.ex. mobila enheter eller RFID-taggar) att självständigt utföra sådana tunga beräkningar. Med målet att ta itu med utmaningen ovan föreslår och formaliserar vi först ett nytt paradigm som kallas Outsourced ABS, dvs. OABS, där de beräknade omkostnaderna på användarsidan i hög grad minskas genom outsourcing av intensiva beräkningar till en opålitlig leverantör av signerings-cloud-tjänster (S-CSP). Dessutom tillämpar vi detta nya paradigm på befintliga ABS-system för att minska komplexiteten. Som ett resultat av detta presenterar vi två konkreta OABS-system: i) I det första OABS-systemet minskas antalet exponentieringar som ingår i undertecknandet från Oðd på Oðd på Oð1 ska (nästan tre), där d är den övre gränsen för tröskelvärdet som definieras i predikatet; ii) vårt andra system är byggt på Herranz et al.Den är byggd med konstanta signaturer. Antalet exponentieringar i signeringen minskas från Oðd 2 till Oðd och det allmänna kommunikationsområdet är Oð1 på Oðd 2. Säkerhetsanalys visar att båda OABS-systemen är säkra när det gäller de integritetsdefinitioner av oförfalskade egenskaper och attributsigner som anges i den föreslagna säkerhetsmodellen. Slutligen, för att möjliggöra hög effektivitet och flexibilitet, diskuterar vi utvidgningar av OABS och visar hur man kan uppnå ansvarsskyldighet också.
Chen och Al. I REF föreslogs ett nytt paradigm med namnet "Outsourced ABS".
3,801,555
Secure Outsourced Attribute-Based Signatures
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
11,977
Djuplärande algoritmer har visat sig prestera extremt bra på många klassiska maskininlärningsproblem. Nyligen genomförda studier har dock visat att djupt lärande, liksom andra tekniker för maskininlärning, är sårbart för kontradiktoriska prover: ingångar skapade för att tvinga ett djupt neuralt nätverk (DNN) att ge motståndare utvalda utgångar. Sådana attacker kan allvarligt undergräva säkerheten i det system som stöds av DNN, ibland med förödande konsekvenser. Till exempel kan autonoma fordon kraschas, olagligt eller olagligt innehåll kan kringgå innehållsfilter, eller biometriska autentiseringssystem kan manipuleras för att möjliggöra felaktig åtkomst. I detta arbete inför vi en defensiv mekanism som kallas defensiv destillation för att minska effektiviteten hos kontradiktoriska prover på DNN. Vi undersöker analytiskt de generaliserings- och robusthetsegenskaper som ges genom användning av defensiv destillation vid utbildning av DNN. Vi studerar också empiriskt effektiviteten i våra försvarsmekanismer på två DNN placerade i kontradiktoriska miljöer. Studien visar att defensiv destillation kan minska effektiviteten av provgenerering från 95 % till mindre än 0,5 % på en undersökt DNN. Sådana dramatiska vinster kan förklaras av det faktum att destillation leder gradienter som används i kontradiktoriska prov skapande minskas med en faktor på 10 30. Vi finner också att destillationen ökar det genomsnittliga minsta antalet egenskaper som behöver ändras för att skapa kontradiktoriska prover med cirka 800 % på en av de DNN som vi testade.
Pappersnot et al. REF införde en defensiv mekanism för att minska effekten av kontradiktoriska exempel på DNN.
2,672,720
Distillation as a Defense to Adversarial Perturbations Against Deep Neural Networks
{'venue': '2016 IEEE Symposium on Security and Privacy (SP)', 'journal': '2016 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
11,978
M achine learning är ett kraftfullt verktyg för att omvandla data till beräkningsmodeller som kan driva användarvänliga applikationer. Potentiella användare av sådana tillämpningar, som ofta är domänexperter för ansökan, har dock begränsat deltagande i processen för att utveckla dem. Intrikaterna i att tillämpa maskininlärningsteknik på vardagliga problem har till stor del begränsat deras användning till skickliga utövare. I det traditionella tillämpade arbetsflödet för maskininlärning samlar dessa utövare in data, väljer funktioner för att representera data, förbehandla och omvandla data, väljer en representation och lärande algoritm för att konstruera modellen, melodiparametrar för algoritmen, och slutligen bedöma kvaliteten på den resulterande modellen. Denna bedömning leder ofta till ytterligare upprepningar av många av de tidigare stegen. Vanligtvis är alla slutanvändares engagemang i denna process förmedlat av utövarna och är begränsat till att tillhandahålla data, svara på domänrelaterade frågor eller ge feedback om den lärda modellen. Detta resulterar i en designprocess med långa och asynkrona iterationer och begränsar slutanvändarnas förmåga att påverka de resulterande modellerna. Betrakta följande fall studie av maskininlärning utövare som arbetar med biokemister för att utveckla en protein taxonomi genom att samla låg nivå proteinstrukturer (Caruana et al. 2006).................................................................. Projektledningen berättade om sin erfarenhet i ett inbjudet föredrag på Intelligent User Interfaces workshop 2013 om Interactive Machine Learning (Amershi et al. 2013)................................................................. För det första skulle utövarna skapa en klunga av proteinstrukturerna. Sedan träffade de biokemisterna för att diskutera resultaten. Biokemisterna skulle kritisera resultaten (t.ex. "dessa två proteiner bör/bör inte vara i samma kluster" eller "detta kluster är för litet"), vilket ger nya begränsningar för nästa iteration. Efter varje möte skulle utövarna noga anpassa klusterparametrarna för att följa den givna con- (Cohn, Caruana, och McCallum 2003; Caruana et al. 2006).................................................................. Dessa algoritmer var avsedda att ge människor möjlighet att snabbt iterera och inspektera många alternativa kluster inom ett enda sammanträde. Deras senare tillvägagångssätt är ett exempel på interaktivt maskininlärning, där inlärningscykler innebär snabbare, fokuserade och stegvisa modelluppdateringar än i den traditionella maskininlärningsprocessen. Dessa egenskaper gör det möjligt för vardagliga användare att interaktivt utforska modellutrymmet och driva systemet mot ett avsett beteende, vilket minskar behovet av övervakning av utövare. Följaktligen kan interaktiv maskininlärning underlätta demokratiseringen av tillämpat maskininlärning, vilket ger slutanvändarna möjlighet att skapa maskininlärningsbaserade system för sina egna behov och syften. Att möjliggöra effektiv interaktion mellan slutanvändare och interaktiv maskininlärning innebär dock nya utmaningar som kräver en bättre förståelse för slutanvändarnas möjligheter, beteenden och behov. Denna artikel främjar den empiriska studien av användare av interaktiva maskininlärningssystem som en metod för att ta itu med dessa utmaningar. Genom en serie fallstudier illustrerar vi följande förslag: Snabba, fokuserade och inkrementella inlärningscykler resulterar i en tät koppling mellan användaren och systemet, där de två påverkar varandra. Som ett resultat av detta är det svårt att frikoppla deras inflytande på den resulterande modellen och studera sådana system isolerat. Explicit studera användarinteraktion kan utmana antaganden om traditionella inlärningssystem om användare och bättre informera utformningen av interaktiva inlärningssystem. De sätt på vilka slutanvändare interagerar med inlärningssystem kan utvidgas till att omfatta de metoder som utövare gör (t.ex. inställningsparametrar eller definition av nya begränsningar), men nya interaktionsmetoder bör utvärderas noggrant med potentiella slutanvändare. Medan de presenterade fallstudierna målar upp en bred bild av den senaste forskningen i användarinteraktion med interaktiv maskininlärning, undersöker denna artikel inte uttömmande litteraturen i detta utrymme. I stället väljs dessa fallstudier ut för att belysa användarens roll och betydelse i den interaktiva maskininlärningsprocessen, vilket fungerar som en introduktion till ämnet och ett verktyg för att överväga denna forskning helt och hållet. Vi avslutar denna artikel med en diskussion om det aktuella läget på området, identifiera möjligheter och öppna utmaningar för framtida interaktiv maskininlärning forskning. Det tillämpade arbetsflödet för maskininlärning innebär ofta långa och komplexa iterationer. Processen inleds med data som tillhandahålls av domänexperter eller som särskilt samlas in för målapplikationen. Maskinlearning utövare arbetar sedan med domänexperter för att identifiera funktioner för att representera data. Därefter experimenterar utövarna med olika maskininlärningsalgoritmer, iteratively tuning parametrar, tweaking funktioner, och ibland samla in mer data för att förbättra målprestandamått. Resultaten undersöks sedan vidare av både utövare och domänexperter för att informera den efterföljande iterationen. I slutet av denna långa cykel uppdateras modellen på flera sätt och kan drastiskt skilja sig från den tidigare iterationen. Dessutom drivs denna iterativa undersökning av modellutrymmet främst av maskininlärningsutövarna, som förlitar sig på sin förståelse av maskininlärningsteknik för att göra välinformerade modelluppdateringar i varje iteration. Modelluppdateringar i interaktiv maskininlärning är däremot snabbare (modellen uppdateras omedelbart som svar på användarinmatning), fokuserad (endast en viss aspekt av modellen uppdateras) och inkrementell (uppdateringens omfattning är liten; modellen ändras inte drastiskt med en enda uppdatering). Detta gör det möjligt för användare att interaktivt undersöka effekten av sina åtgärder och anpassa efterföljande indata för att få önskade beteenden. Som ett resultat av dessa snabba interaktionscykler, även användare med liten eller ingen maskininlärning expertis kan styra maskininlärning beteenden genom låg kostnad försök och fel eller fokuserade experiment med input och outputs. Kanske de mest bekanta exempel på interaktiv maskininlärning i verkliga tillämpningar är rekommenderar system som Amazon produktrekommendationer, Netflix film rekommendationer, och Pandora musik rekommendationer. Användare av recommender system ställs ofta riktade frågor om sina preferenser för enskilda objekt 2 (som de tillhandahåller genom att gilla eller ogilla dem, till exempel). Dessa preferenser införlivas sedan snabbt i det underliggande inlärningssystemet för efterföljande rekommendationer. Om ett rekommendationssystem börjar rekommendera oönskade objekt efter att ha infört nya inställningar, kan användaren försöka omdirigera systemet genom att korrigera det eller ge olika preferensinformation i framtiden. Därefter presenterar vi två fallstudier som exemplifierar den interaktiva maskininlärningsprocessen och demonstrerar dess potential som ett verktyg för slutanvändare. Interactive Machine Learning for Image Segmentation Misslyckas och Olsen (2003) var de första att introducera artiklarna WINTER 2014 107 termen interaktiv maskininlärning i människa-datorinteraktion gemenskapen, som karakteriserar det med snabba tåg-feedback-korrigerande cykler, där användare iterativt ge korrigerande feedback till en inlärare efter att ha sett dess utgång. De demonstrerade denna process med sina Crayons system, som gjorde det möjligt för användare utan maskininlärning bakgrund att träna pixel klassificerare genom att iterativt markera pixlar som förgrund eller bakgrund genom penseldrag på en bild. Efter varje användarinteraktion svarade systemet med en uppdaterad bildsegmentering för ytterligare granskning och korrigerande inmatning. Utvärderingar av Crayons genom användarstudier visade att systemets omedelbara resultat gjorde det möjligt för användarna att snabbt se och korrigera felklassificeringar genom att lägga till nya utbildningsdata inom de mest problematiska områdena. Som illustreras i figur 2, efter en första klassificering, ger användaren Crayons med mer data i kanterna på handen där klassificeringen misslyckades. På frågan vad de tänkte när de interagerade med systemet, de flesta användare uppgav att de var fokuserade på att se delar av bilden som klassificerades felaktigt. Misslyckas och Olsens arbete med Crayons visade att användarna modifierar sitt beteende baserat på en inlärares resultat, vilket är en underliggande förutsättning för en stor del av följande forskning om interaktiv maskininlärning. Ett annat exempel på ett interaktivt maskininlärningssystem kommer från musiksammansättningens område Inom maskininlärning levererar människor iterativt information till ett inlärningssystem och observerar och tolkar sedan systemets utgångar för att informera efterföljande iterationer. I interaktiv maskininlärning är dessa iterationer mer fokuserade, frekventa och inkrementella än traditionell maskininlärning. Det tätare samspelet mellan användare och inlärningssystem i interaktiv maskininlärning kräver ett ökat fokus på att studera användarens engagemang i processen. och prestanda. Denna domän är naturligt interaktiv: musiker är vana vid att få omedelbar feedback när de interagerar med ett musikinstrument. Fiebrink, Cook och Trueman (2011) utvecklade Wekinator, ett maskininlärningssystem som gör det möjligt för människor att interaktivt skapa nya gestbaserade instrument, som att flytta en arm framför en webbkamera för att producera olika ljud baserat på armens position, hastighet eller rotation. I detta system får ett neuralt nätverk parade gester och ljud från användaren som ingång och lär sig att interpolera från oobserverade gestpositioner till en rad olika ljud. Användarna utvärderar sina instrument direkt genom att ge och bedöma de producerade ljuden. Samtidigt som man observerar elever som använder Wekinator i en tvärvetenskaplig musik- och datavetenskaplig kurs, fann författarna att systemets interaktiva karaktär, när eleverna tränade sina respektive instrument, också bidrog till att utbilda eleverna. Eleverna lärde sig till exempel hur man känner igen buller i sina träningsprover och ger klarare exempel till eleven. I vissa fall justerade eleverna till och med sina mål för att matcha elevens observerade förmåga. I en uppföljning undersökning med en professionell cellist (Fiebrink, Cook, och Trueman 2011), cellisten identifierade brister i hennes spelteknik samtidigt som man försöker träna en gest känna igen. Processen visade att cellistens böjande artikulation inte var så exakt som hon hade trott. Genom att observera utdata från systemet i realtid, Wekinator användare kunde ändra sitt beteende på sätt som tillät dem att skapa instrument till sin tillfredsställelse. Dessa exempel illustrerar de snabba, fokuserade och inkrementella interaktionscykler som är grundläggande för interaktiv maskininlärning; det är dessa cykler som underlättar slutanvändarnas engagemang i maskininlärningsprocessen. Dessa cykler resulterar också i en tät koppling mellan användaren och systemet, vilket gör det omöjligt att studera systemet isolerat från användaren. Detta kräver ett ökat fokus på att studera hur användarna effektivt kan påverka maskininlärningssystemet och hur inlärningssystemet på lämpligt sätt kan påverka användarna. I följande avsnitt undersöks hur explicit studier av slutanvändare kan utmana antaganden om traditionell maskininlärning och bättre informera utvecklingen av interaktiva maskininlärningssystem. Många av de fallstudier att följa dessutom överväga mindre traditionella typer av input och output, som går bortom märkta exempel och observationer av inlärare förutsägelser. Se figur 2 i bilaga II till förordning (EG) nr 1069/2009. Interaktiv träning av Crayons System. Systemet tar pixlar märkta som bakgrund/förgrund som ingång (tillhandahålls genom penseldrag), och ger en helt segmenterad bild som utgång (finns genom en klassificering som märker varje pixel som förgrund/bakgrund). Användarens input är fokuserad på områden där klassificeringen misslyckas i tidigare iterationer (Underkänder och Olsen 2003). InsatsdataSegmentering Iteration 1 Iteration 2 Iteration 3 Den ökade interaktionen mellan användare och lärandesystem i interaktiv maskininlärning kräver en ökad förståelse för hur slutanvändarnas engagemang påverkar inlärningsprocessen. I detta avsnitt presenterar vi fallstudier som visar hur en sådan förståelse i slutändan kan leda till bättre informerade systemkonstruktioner. För det första presenterar vi fallstudier som visar hur människor kan bryta antaganden gjorda av traditionella maskininlärare, vilket resulterar i oväntade resultat och användaren frustration. Därefter presenterar vi fallstudier som visar att människor kanske vill interagera med maskininlärningssystem på ett rikare sätt än förväntat, vilket tyder på nya input- och utdatafunktioner. Slutligen presenterar vi fallstudier som experimenterar med ökad transparens om hur maskininlärningssystem fungerar, och som visar att sådan transparens kan förbättra användarupplevelsen i vissa scenarier, samt noggrannheten hos resulterande modeller. Aktivt lärande är ett maskininlärningsparadigm där eleven väljer de exempel han kommer att lära sig (Settles 2010). Dessa exempel väljs ut ur en samling omärkta prover på grundval av ett urvalskriterium (t.ex. prov för vilka eleven har maximal osäkerhet). För varje utvalt prov frågar eleven ett orakel för att begära en etikett. Denna metod har varit framgångsrik när det gäller att påskynda inlärningen (dvs. att kräva färre etiketter för att uppnå en målnoggrannhet) i tillämpningar som textklassificering och objektigenkänning, där orakel ofta betalas för att tillhandahålla etiketter under lång tid. Cakmak och kollegor (2010) upptäckte dock att aktivt lärande kan orsaka flera problem när det tillämpas på interaktiva inställningar, t.ex. en person som lär ut en uppgift till en robot genom exempel. Cakmaks studie (figur 3) fann att den konstanta strömmen av frågor från roboten under interaktionen uppfattades som obalanserad och irriterande. Strömmen av frågor ledde också till en nedgång i användarens mentala modell av hur roboten lärde sig, vilket fick vissa deltagare att "stänga av sin hjärna" eller "förlora spår av vad de undervisade" (enligt deras självrapport) (Cakmak, Choa, och Thomaz 2010). Guillory och Bilmes (2011) rapporterade liknande fynd för ett aktivt filmrekommenderingssystem som de utvecklat för Netflix. Dessa studier visar att användarna inte nödvändigtvis är villiga att vara enkla orakel (dvs. gång på gång tala om för datorn om det är rätt eller fel), bryta ett grundläggande antagande om aktivt lärande. I stället måste dessa system redogöra för sådana mänskliga faktorer som frånkopplingsförmåga eller frustration när man använder metoder som aktivt lärande. I förstärkande inlärning, en agent sinnen och agerar i en uppgift miljö och får numeriska belöningsvärden efter varje handling. Med denna erfarenhet försöker inlärningsagenten hitta beteendestrategier som förbättrar dess förväntade ansamling av belöningar. Ett antal forskningsprojekt har undersökt det scenario i vilket denna belöning kommer som återkoppling från en mänsklig användare snarare än en funktion som definierats av en expert (Isbell et al. 2006, Thomaz och Breazeal 2008, Knox och sten 2012. Vid utvärderingen av genomförbarheten av icke-expertanvändare undervisning genom belöningssignaler, dessa forskare syftar till att både utnyttja mänsklig kunskap för att förbättra inlärningshastigheten och tillåta användare att anpassa en agents beteende för att passa sina egna behov. Thomaz och Breazeal (2008) konstaterade att människor har en stark tendens att ge mer positiva belöningar än negativa belöningar. Knox och Stone (2012) bekräftade senare denna positiva partiskhet i sina egna experiment. De visade vidare att sådan partiskhet leder många agenter att undvika det mål som användarna lär den att nå (till exempel vattnet i figur 4). Denna oönskade konsekvens uppstår med en gemensam klass av förstärkande inlärningsalgoritmer: agenter som värdebelönade på lång sikt och lärs att slutföra så kallade tillfälliga uppgifter. Denna insikt rättfärdigade den tidigare populära lösningen att göra agenter som hedonistiskt endast strävar efter kortsiktiga mänskliga belöningar, och den ledde Knox och Stone (2013) att skapa en algoritm som framgångsrikt lär sig genom att värdera mänskliga belöningar som kan vinnas på lång sikt. Agenter tränade genom sitt nya tillvägagångssätt var mer robusta till miljöförändringar och betedde sig mer lämpligt i okända stater än gjorde mer hedonistiska (dvs. myopiska) varianter. Dessa medel och de algoritmiska riktlinjer Knox och Stone skapade var resultatet av flera iterationer av användarstudier, som identifierade positiv partiskhet och sedan verifierade dess hypoteseffekter. I ett experiment av Thomaz och Breazeal (2008) tränade användare en simulerad agent att baka en kaka genom ett förstärkande inlärningsramverk. I sitt gränssnitt gav användare feedback till eleven genom att klicka och dra en mus -längre drag gav större-magnitud belöning värden, och dra riktning bestämde valence (+ /-) av belöningsvärdet (figur 4). Vidare kunde användarna klicka på specifika objekt för att signalera att återkopplingen var specifik för det objektet, men de fick höra att de inte kunde kommunicera vilka åtgärder agenten skulle vidta. Thomaz och Breazeal fann bevis för att människor ändå gav positiv feedback till objekt som de ville att agenten skulle manipulera, till exempel en tom skål som agenten är i stånd att plocka upp. Dessa användare bröt mot instruktionerna genom att tillämpa vad som kunde anses vara en irrelevant grad av frihet - att ge återkoppling till objekt som inte nyligen manipulerats - att ge vägledning till agenten om framtida åtgärder, snarare än faktisk feedback om tidigare åtgärder. Efter att Thomaz och Breazeal anpassat agentens gränssnitt och algoritm för att införliva sådan vägledning, förbättrade agentens inlärningsprestanda avsevärt. Andra forskare har kommit fram till liknande slutsatser. I en Wizard-of-Oz-studie (dvs. agentens resultat tillhandahölls i hemlighet av en människa) av Kaochar och kollegor (2011), lärde användare en simu-försedd obemannad flygfarkost (UAV) att utföra olika uppdrag. När som helst valde dessa användare att undervisa genom demonstration, feedback eller genom att ge ett exempel på ett koncept. De kunde också testa agenten för att se vad den hade lärt sig. Författarna fann att användarna aldrig lärde ut enbart feedback, utan att de i allmänhet använde den efter att ha undervisat på andra tillgängliga sätt. Tillsammans ger dessa två studier inblick i utformningen av naturliga gränssnitt för lärare. Människor vill naturligtvis ge mer än bara dataetiketter Märkningsdata är fortfarande den mest populära metoden för slutanvändarens inmatning till interaktiva maskininlärningssystem på grund av dess enkelhet och användarvänlighet. Som framgår av tidigare fallstudier kan dock märkningsbaserade indata ha nackdelar (t.ex. negativa attityder till att behandlas som ett orakel). Dessutom tyder ny forskning på att användarna i vissa scenarier kan vilja ha mer kontroll över maskininlärningssystem än att bara märka data. Till exempel har Stumpf och kollegor (2007) genomfört en studie för att förstå vilka typer av slutanvändare som kan tillhandahålla maskininlärningssystem om gränssnittet är obegränsat. Författarna genererade tre typer av förklaringar för förutsägelser från ett textklassificeringssystem som fungerar över e-postmeddelanden. Dessa förklaringar presenterades för människor i form av pappersbaserade mockups för att undvika intrycket av ett färdigt system och uppmuntra människor att ge mer feedback. Människor ombads då att ge feedback i fri form på pappersprototyperna med målet att försöka rätta till klassificeringens misstag. Detta experiment genererade cirka 500 återkopplingar från deltagarna, som sedan kommenterades och kategoriserades. Författarna fann att människor naturligt gav ett brett utbud av inmatningstyper för att förbättra klassificeringens prestanda, bland annat föreslå alternativa funktioner att använda, justera betydelsen eller vikten som ges till olika funktioner, och ändra den information som extraheras från texten. Dessa resultat ger en möjlighet att utveckla nya maskininlärningsalgoritmer som bättre kan stödja den naturliga feedback människor vill ge till inlärare, snarare än tvinga användare att interagera på begränsade, inlärarcentrerade sätt. Förutom att människor vill ha rikare kontroller vill de ibland ha mer insyn i hur deras maskininlärningssystem fungerar. Kulesza och kollegor (2012) gav användare av en innehållsbaserad musikrekommendation med en 15-minuters handledning som diskuterade hur rekommendationen fungerade och hur olika återkopplingskontroller (till exempel betygslåtar, styrning mot specifika funktionsvärden, och så vidare) skulle påverka eleven. Förvånansvärt nog reagerade deltagarna positivt på att lära sig dessa detaljer om systemet. Dessutom fann forskarna att ju fler deltagare som lärde sig om rekommendationen samtidigt som de interagerade med den, desto mer nöjda var de med rekommendationens resultat. Denna fallstudie ger bevis för att användarna inte alltid är nöjda med "black box" inlärningssystem - ibland vill de ge nyanserad feedback för att styra systemet, och de är villiga och kan lära sig detaljer om systemet för att göra det. Rashid och kollegor (2006) undersökte insynen på en mer social nivå och undersökte effekten av att visa användarna värdet av deras potentiella filmbetyg till en bredare gemenskap i MovieLens rekommendationssystem. Användare som fick information om värdet av sitt bidrag till hela MovieLens community gav fler betyg än de som inte fick sådan information, och de som fick information om värde för en grupp användare med liknande smaker gav fler betyg än de som fick information om hela MovieLens community. Ibland gör användare misstag medan märkning, vilket ger falsk information till eleven. Även om de flesta inlärningssystem är robusta för enstaka mänskliga fel, Rosenthal och Dey satte ut för att lösa detta problem vid källan. De försökte minska användarnas misstag genom att tillhandahålla riktad information när en etikett begärs i en aktiv inlärningsmiljö. Den information som lämnades till användaren innehöll en kombination av kontextuella egenskaper hos det prov som ska märkas, förklaringar av dessa egenskaper, elevens egen förutsägelse av etiketten för provet, och dess osäkerhet i denna förutsägelse (Rosenthal och Dey 2010). De genomförde två studier för att bestämma den delmängd av sådan information som är mest effektiv för att förbättra märkningen noggrannheten hos användarna. Den första handlade om att märka främlingars e-postmeddelanden i kategorier, samt om att märka möjligheten att avbryta främlingars aktiviteter, den andra om att märka sensoriska inspelningar av deras egen fysiska aktivitet. Båda studierna visade att den högsta märkningsnoggrannheten uppstod när systemet gav tillräckliga kontextuella egenskaper och aktuella förutsägelser utan osäkerhetsinformation. Denna forskningslinje visar att det sätt på vilket information presenteras (t.ex. med eller utan sammanhang) i hög grad kan påverka kvaliteten på det svar som framkallas av användaren. Denna fallstudie visar också att inte alla typer av transparens förbättrar prestandan hos interaktiva maskininlärningssystem, och användarstudier kan hjälpa till att avgöra vilken information som är mest användbar för den avsedda publiken. Artiklar Sammanfattning Att förstå hur människor faktiskt interagerar - och vill interagera - med maskininlärningssystem är avgörande för att utforma system som människor kan använda effektivt. Att utforska interaktionsteknik genom användarstudier kan avslöja luckor i en designers antaganden om sina slutanvändare och kan föreslå nya algoritmiska lösningar. I några av de fall vi granskade bröt människor naturligtvis antaganden om maskininlärningsalgoritmen eller var ovilliga att följa dem. Andra fall visade att användarstudier kan leda till användbara insikter om vilka typer av input och output som gränssnitt för interaktiv maskininlärning bör stödja. I allmänhet kan denna typ av forskning ta fram designförslag och överväganden, inte bara för människor som bygger användargränssnitt och utvecklar den övergripande användarupplevelsen, utan även för maskininlärningssamhället.
Det mest närbesläktade arbetet är på interaktiv maskininlärning forskning och människa-in-the-loop maskininlärning, en grundlig översyn ges i REF.
127,197
Power to the People: The Role of Humans in Interactive Machine Learning
{'venue': 'AI Magazine', 'journal': 'AI Magazine', 'mag_field_of_study': ['Computer Science']}
11,979
Föreslagna citat: Jishan, Syed; Rashu, Raisul; Haque, Naheena; Rahman, Rashedur M. (2015) : Förbättra noggrannheten i elevernas slutliga grad förutsägelse modell med optimal lika bredd binning och syntetisk minoritet överampling teknik, Standard-Nutzungsbedingungen: Die Dokumente auf EconStor dürfen zu eigenen wisenschaftlichen Zwecken und zum Privatgebrauch gespeichert und kopiert werden. Sie dürfen die Dokumente nicht für öffentliche oder kommandezielle Zwecke vervielfältigen, öffentlich ausstellen, öffentlich zugänglich machen, vertreiben der anderweitig nutzen. Sofern die Verfasser die Dokumente unter Open-Content-Lizenzen (inbesonde CC-Lizen) zur Verfügung gestellt haben sollten, gelten abweichend von diesen Nutzungsbedingungen die in der dort genannten Lizenz gewährten Nutzungsrechte. Det har skett en ständig ökning av efterfrågan på högre utbildning under det senaste årtiondet över hela världen, och därför är behovet av att förbättra utbildningssystemet överhängande. Utbildningsdata mining är ett nyligen synligt område inom området data mining och det kan tillämpas för att bättre förstå utbildningssystemen i Bangladesh. I denna forskning presenterar vi hur data kan förbehandlas med hjälp av en diskretiseringsmetod kallad Optimal Equal Wide Binning och en översamplingsteknik känd som Synthetic Minority Over-Sampling (SMOTE) för att förbättra noggrannheten i studenternas prognosmodell för slutbetyg för en viss kurs. För att validera vår metod har vi använt data från en kurs som erbjuds vid North South University, Bangladesh. Resultatet från försöket ger en tydlig indikation på att noggrannheten i prediktionsmodellen förbättras avsevärt när diskretiserings- och överprovtagningsmetoderna tillämpas. Educational Data Mining (EDM) är ett tvärvetenskapligt forskningsområde som fixerar vid användningen av data mining inom utbildningsområdet. Utbildningsdata kan komma från olika källor, men i allmänhet från akademiska institutioner, men idag är online-inlärningssystem också den begynnande miljön för att skaffa utbildningsdata som kan habitueras för att analysera och extrahera användbar information (Romero & Ventura 2010). Målet med forskningen är att förutsäga studenternas prestationer med hjälp av attribut som Cumulative Grade Point Genomsnitt, Quiz, Laboratory, Midterm och Attency Marks. För att förbättra prediktionsmodellen införde vi dock vissa förbearbetningstekniker så att prediktionsmodellen ger mer exakta resultat som kan användas för att varna studenterna innan slutprovet för deras slutresultat. Vi fick kursdata och studentinformation från North South University. Efter att ha inhämtat data förbehandlade vi den och tillämpade sedan tre klassificeringsalgoritmer, t.ex. Naïve Bayes, Decision Tree och Neural Network. För att förbättra modellen tittade vi på teknikerna på förbehandlingsnivån för data. I början vi
REF presenterade en beslutsanalys metod där data kan förbehandlas med hjälp av Optimal Equal Wide Binning (dvs. som är en diskretiseringsmetod) och Synthetic Minority Over-Sampling (dvs., som är en översampling metod) tekniker.
22,349,860
Improving accuracy of students' final grade prediction model using optimal equal width binning and synthetic minority over-sampling technique
{'venue': None, 'journal': 'Decision Analytics', 'mag_field_of_study': ['Computer Science']}
11,980
Abstract-Vi anser att problemet med LTE nätverk själv organisation och optimering av resursallokering. En särskild utmaning för LTE-system är att en överföring, genom att använda OFDMA, kan använda flera resursblock som schemalagts över frekvens och tid. Det finns tre nyckelkomponenter som är involverade i resursallokering och nätverksoptimering: resursblocksplanering, kraftstyrning och kundförening. Vi föreslår ett distribuerat protokoll som syftar till att uppnå viktad proportionell rättvisa (WPF) bland klienter genom att gemensamt överväga dem. Den crosslayer designen inkluderar: (i) en optimal online-policy för resursblock schemaläggning, (ii) en heuristic för att överföra maktstyrning, och (iii) en självisk strategi för kundföreningen. Det föreslagna systemet kräver endast ett begränsat lokalt informationsutbyte och kan därför lätt genomföras för stora nät. Simuleringsresultat har visat sin effektivitet i både systemets genomströmning och användarnas rättvisa.
I REF föreslås ett gradientalgoritmbaserat system för självorganiserande resursfördelning i LTE-system.
12,145,638
Self-organized resource allocation in LTE systems with weighted proportional fairness
{'venue': '2012 IEEE International Conference on Communications (ICC)', 'journal': '2012 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
11,981
Abstract-The joint routing och power allocation problem i en trådlös full-duplex nätverk med bristfällig interferens annullering och en enda källa destination paret är löst. Vår förenklade interferensmodell fokuserar på effekterna av full duplex genom att inkludera återstående självinterferens och en humleinterferens medan andra störande signaler antas vara försumbara. För det första identifieras den optimala energitilldelningen för en fast linje. Därefter används en modifiering av Dijkstras algoritm för att hitta den gemensamma rutten och krafttilldelningen för att maximera genomströmningen. På grund av störningar, den föreslagna algoritmen har en icke nedbrytbar objektiv funktion, men det är effektivt löst för varje kandidat rutt. Vår lösning i en fullständig interferensmodell, som inte ignorerar någon störning, är på sin höjd konstant bunden bort från den optimala lösningen i den fullständiga interferensmodellen. Genom simuleringar utvärderar vi flera scenarier och visar lösningens beteende i båda interferensmodellerna. Index Terms-Ad-hoc nätverk, nätverk och system, resursfördelning, störningshantering.
I REF studerade Ramirez och Aazhang ett problem med gemensam routing och kraftfördelning för ett enda källmålpar i ett trådlöst FD-nätverk med bristfällig självinblandning.
27,088,739
Optimal Routing and Power Allocation for Wireless Networks with Imperfect Full-Duplex Nodes
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science']}
11,982
Abstract-Med den snabba utvecklingen av Internet av saker enheter och nätverksinfrastruktur, har det funnits en hel del sensorer som antagits i den industriella produktionen, vilket resulterar i en stor mängd data. Ett av de mest populära exemplen är tillverkningskontrollen, som är att upptäcka defekter i produkterna. För att införa ett robust inspektionssystem med högre noggrannhet föreslår vi en djupinlärningsbaserad klassificeringsmodell i detta dokument, som kan hitta de eventuella defekta produkterna. Eftersom det kan finnas många monteringslinjer i en fabrik, är ett enormt problem i detta scenario hur man behandlar sådana stora data i realtid. Därför designar vi vårt system med begreppet dimdata. Genom att avlasta beräkningsbördan från den centrala servern till dimnoder, får systemet möjlighet att hantera extremt stora data. Det finns två uppenbara fördelar i vårt system. Den första är att vi anpassar den konvolutionella neurala nätverksmodellen till dimdatamiljön, vilket avsevärt förbättrar dess datoreffektivitet. Den andra är att vi utarbetar en inspektionsmodell, som samtidigt kan ange defekttypen och dess grad. Experimenten bevisar att den föreslagna metoden är robust och effektiv.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. utnyttjad dimma dator för att avlasta datorbördan från molnservrarna till dimnoder för att få bekvämligheten av att behandla datainnehållet i utkanten av nätverket REF.
52,931,090
Deep Learning for Smart Industry: Efficient Manufacture Inspection System With Fog Computing
{'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science']}
11,983
Abstract-Queries till sökmotorer på webben är oftast korta. De ger inte tillräcklig bevisning för ett effektivt urval av relevanta dokument. Tidigare forskning har föreslagit utnyttjande av frågeexpansion för att hantera detta problem. Expansionstermer bestäms dock vanligen på termen samtidiga förekomster inom dokumenten. I denna studie föreslår vi en ny metod för frågeexpansion baserad på användarinteraktioner som registrerats i användarloggar. Den centrala idén är att extrahera korrelationer mellan frågetermer och dokumenttermer genom att analysera användarloggar. Dessa korrelationer används sedan för att välja högkvalitativa expansionstermer för nya frågor. Jämfört med tidigare sökexpansionsmetoder utnyttjar våra användares bedömningar i användarloggar. De experimentella resultaten visar att den log-baserade frågeexpansionsmetoden kan ge mycket bättre resultat än både den klassiska sökmetoden och de andra sökexpansionsmetoderna.
Cui m.fl. REF föreslog en frågeexpansionsmetod baserad på gruvanvändarloggar, som utnyttjar korrelationen mellan frågetermer och dokumenttermer för att välja expansionstermer för nya frågor.
13,149,206
Query Expansion by Mining User Logs
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,984
Abstrakt. Digitalt kulturarv i interaktiv form kan ta olika former. Det kan vara antingen i form av interaktiva virtuella representationer av icke-digitala objekt som byggnader eller natur, men också som födda digitala material som interaktiv konst och videospel. För att bevara dessa material på lång sikt måste vi vidta åtgärder för att bevara dem. För att kontrollera giltigheten av dessa åtgärder måste den ursprungliga och den bevarade formen jämföras. Medan statisk information som bilder eller textdokument kan migreras till nya format, särskilt digitala objekt som är interaktiva måste bevaras med hjälp av nya renderingsmiljöer. I den här artikeln visar vi hur resultaten av att göra ett objekt i olika miljöer kan jämföras. Vi presenterar ett arbetsflöde med tre steg som stöder utförandet av digitala objekt i en renderingsmiljö, tillämpningen av interaktiva åtgärder på ett standardiserat sätt för att säkerställa inga avvikelser på grund av olika interaktioner, och XCL Layout-processorn som utökar de karakteriserade skärmdumparna av renderingsresultaten genom att lägga till information om viktiga områden på skärmbilden så att vi kan jämföra renderingsresultaten. Vi presenterar fallstudier om interaktiv fiktion och ett schackprogram som visar att tillvägagångssättet är giltigt och att renderingsresultaten kan jämföras med framgång.
Fallstudier av interaktiva objekt som jämför renderingsresultaten för olika renderingsmiljöer med hjälp av ovan nämnda karakteriseringsspråk XCL på nivån av skärmdumpar av renderingar har utförts REF.
7,715,342
Same same but different - comparing rendering environments for interactive digital objects
{'venue': 'of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,985
....................................... Innerträdgården: En sandlåda (upp till vänster) är kopplad till fysiologiska sensorer (botten till vänster) för att skapa en medveten interaktiv upplevelse där användaren kan forma sin egen värld som utvecklas enligt hennes andning och puls (centrum). Användaren kan sedan bestämma sig för att bli nedsänkt i denna värld tack vare en Head Mounted Display (höger) för ett ögonblick av ensamhet och meditation. Digital teknik har helt integrerats i vårt dagliga liv, men teknikens potential att förbättra användarnas livstillfredsställelse är fortfarande till stor del outnyttjad. Mindfulness, handlingen att ägna en medveten och icke-dömande uppmärksamhet åt nuet, har visat sig ha en positiv inverkan på en persons hälsa och subjektiva välbefinnande - vanligen kallad "lycka". Baserat på en iterativ process med meditationslärare och utövare utformade vi ett nytt verktyg för att stödja mindfulnessövningar. Detta verktyg tar formen av en förstärkt sandlåda, utformad för att inspirera användarens självmotivation och nyfikenhet. Genom att forma sanden skapar användaren en levande miniatyrvärld som projiceras tillbaka till sanden. De naturliga elementen i trädgården är kopplade till realtid fysiologiska mätningar, såsom andning, hjälper användaren att hålla fokus på kroppen. Dessutom, med hjälp av en Virtual Reality headset, kan de resa in i sin trädgård för en dedikerad meditation session. Preliminära resultat verkar tyda på att systemet är väl lämpat för mindfulness och framkallar en lugn och medveten tillstånd på användaren. Meditationslärarena föreställde sig användningen av Inre Trädgården i sin praktik.
Inre trädgården av Sol Roo et al. REF är ett verktyg för att stödja mindfulness metoder, som definieras som "handling att spela en avsiktlig och icke-dömande uppmärksamhet på nuet" där "positiva effekter av en persons hälsa och subjektiva välbefinnande" kan uppnås.
19,523,550
Inner Garden: Connecting Inner States to a Mixed Reality Sandbox for Mindfulness
{'venue': "CHI '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,986
Regressionstestning säkerställer kvaliteten på modifierade serviceorienterade affärsapplikationer mot oavsiktliga förändringar. En typisk regressionstestssvit är dock stor i storlek. Tidigare utförande av de testfall som kan upptäcka fel är attraktivt. Många befintliga prioritering tekniker beställa test fall enligt deras respektive täckning av program uttalanden i en tidigare version av ansökan. Å andra sidan är industriella serviceorienterade affärsapplikationer vanligtvis skrivna i orkestreringsspråk som WS-BPEL och integrerade med arbetsflödessteg och webbtjänster via XPath och WSDL. Fel i dessa artefakter kan orsaka ansökan att extrahera fel data från meddelanden, vilket leder till fel i tjänstesammansättningar. Förvånansvärt nog, nuvarande regressionstestning forskning knappast anser dessa artefakter. Vi föreslår en multilevel täckningsmodell för att fånga affärsprocessen, XPath, och WSDL ur perspektivet regressionstestning. Vi utvecklar en familj av testfallsprioriteringsmetoder ovanpå modellen. Empiriska resultat visar att våra tekniker kan uppnå betydligt högre grad av feldetektering än befintliga tekniker.
Mei och Al. REF föreslår en hierarki av testfallsprioriteringsmetoder för tjänsteorienterade tillämpningar genom att överväga olika nivåer av tjänster, inklusive affärsprocess, XPath och WSDL-specifikationer.
17,866,669
Test case prioritization for regression testing of service-oriented business applications
{'venue': "WWW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,987
Många verkliga uppgifter involverar flera agenter med partiell observerbarhet och begränsad kommunikation. Lärande är utmanande i dessa miljöer på grund av lokala synpunkter på agenter, som uppfattar världen som icke-stationär på grund av att samtidigt utforska lagkamrater. Metoder som lär sig specialiserad politik för enskilda uppgifter möter problem när de tillämpas på den verkliga världen: inte bara måste agenter lära sig och lagra distinkta strategier för varje uppgift, men i praktiken är uppgifters identiteter ofta inte observerbara, vilket gör dessa strategier otillämpliga. Detta dokument formaliserar och tar upp problemet med multi-task multi-agent förstärkning lärande under partiell observerbarhet. Vi inför ett decentraliserat sätt att lära sig en enda uppgift som är robust för samtidiga interaktioner mellan lagkamrater, och presenterar ett tillvägagångssätt för att destillera en enda uppgift till en enhetlig politik som fungerar bra över flera relaterade uppgifter, utan uttryckligt tillhandahållande av uppgiftsidentitet.
Ett annat tillvägagångssätt för lärande med flera uppgifter REF där flera aktörer samordnar för att maximera sina resultat i relaterade uppgifter utan uttrycklig uppgiftskunskap, dvs. partiell observerbarhet.
8,894,704
Deep Decentralized Multi-task Multi-Agent Reinforcement Learning under Partial Observability
{'venue': 'Proceedings of the 34th International Conference on Machine Learning (ICML 2017), Sydney, Australia, PMLR 70:2681-2690, 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,988
Vi studerar den interna resonansen, energiöverföringen, aktiveringsmekanismen, och kontrollen av en modell av DNA-delning via parametrisk resonans. Även om systemet är robust för buller, visar denna studie att det är känsligt för specifika finskaliga lägen och frekvenser som kan riktas mot lågintensiva elektromagnetiska fält för att utlösa och kontrollera divisionen. DNA-modellen är en kedja av pendula i en Morse potential. Medan (möjligen parametriskt upphetsade) systemet har ett stort antal grader av frihet och ett stort antal inneboende tidsskalor, kan globala och långsamma variabler identifieras genom att (i) först minska sin dynamik till två lägen utbyte energi mellan varandra och (ii) medelvärde av dynamiken i det reducerade systemet med avseende på fasen av det snabbaste läget. Förvånansvärt nog förblir systemets globala och långsamma dynamik Hamiltonian (trots parametrisk excitation) och studien av dess tillhörande effektiva potential visar hur parametrisk excitation kan förvandla det instabila öppna tillståndet till ett stabilt. Numeriska experiment stöder noggrannheten i tidsmedelvärdet reducerade Hamiltonian i att fånga den globala och långsamma dynamiken i hela systemet. I detta dokument studerar vi den interna resonansen, energiöverföringen, aktiveringsmekanismen och kontrollen av en modell av DNA-delning via parametrisk resonans. Medan DNA makromolekyler är robusta för buller, visar vår studie att de är känsliga för specifika finskaliga lägen och frekvenser som kan riktas mot lågintensiva elektromagnetiska fält för att utlösa och kontrollera divisionen.
Vi hänvisar också till REF för kontroll av en icke-linjär modell av dubbelsträngat DNA via parametrisk resonans.
1,332,074
Control of a Model of DNA Division via Parametric Resonance
{'venue': None, 'journal': 'arXiv: Dynamical Systems', 'mag_field_of_study': ['Medicine', 'Mathematics', 'Physics', 'Biology']}
11,989
Abstrakt. Certifieringsbaserad signatur (CBS) är ett attraktivt paradigm eftersom det samtidigt löser problemet med återkallande av certifikat i konventionella signaturer och det viktiga spärrproblemet i ID-baserade signaturer. I synnerhet är korta certifikatbaserade signaturer användbara för att minska bandbredden för kommunikation på grund av deras korta signaturlängder. Det är dock fortfarande ett utmanande och öppet problem att utforma ett säkert kort certifikatbaserat signatursystem (SCBS). Nyligen, för att lösa detta problem, Li et al. föreslog ett effektivt system för SCBS. Men i den här artikeln kommer vi att visa att Li et al.'s plan är osäker mot typ I motståndare (d.v.s. icke-certifierad enhet) enligt en ackrediterad säkerhetsmodell. Dessutom föreslår vi ett nytt SCBS-system med påvisbar säkerhet. Baserat på det beräkningsmässiga Diffie-Hellman (CDH) antagandet, visar vi att vårt SCBS-system har existentiell oförfalskad förmåga mot adaptiva utvalda meddelanden attacker under samma ackrediterade säkerhetsmodell. Jämfört med tidigare SCBS-system är vårt system det första bevisligen säkra SCBS-systemet samtidigt som effektiviteten bibehålls.
År 2016, Hung m.fl. REF visade att Li et al.Systemet med SCBS är fortfarande osäkert mot motståndaren av typ I och föreslog ett påvisbart säkert och nytt system för SCBS.
31,400,389
A short certificate-based signature scheme with provable security
{'venue': 'ITC', 'journal': 'ITC', 'mag_field_of_study': ['Computer Science']}
11,990
Vi anser att problemet med resursdelning vid behandling av ett stort antal kontinuerliga frågor. Vi tar specifikt upp skjutbara fönsteraggregat över dataströmmar, en viktig klass av kontinuerliga operatörer för vilka delning inte har tagits upp. Vi presenterar en svit av delningstekniker som täcker ett brett spektrum av möjliga scenarier: olika klasser av aggregeringsfunktioner (algebraiska, distributiva, holistiska), olika fönstertyper (tidsbaserade, tuple-baserade, suffix, historiska) och olika ingångsmodeller (enström, flera subströmmar). Vi ger exakta teoretiska prestandagarantier för våra tekniker och visar deras praktiska effektivitet genom en grundlig experimentell studie.
Problemet med att effektivt beräkna ett stort antal skjutbara fönsteraggregat över kontinuerliga dataströmmar infördes för första gången i REF.
12,794,810
Resource sharing in continuous sliding-window aggregates
{'venue': 'In Proceedings of the International Conference on Very Large Databases (VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,991
Green cloud datacenter har blivit en forskningshotspot av virtualiserade cloud computing arkitektur. Eftersom levande virtuell maskin (VM) migreringsteknik används i stor utsträckning och studeras i molndata har vi fokuserat på valet av VM-placering av livemigrering för att spara ström. Vi presenterar ett nytt heuristiskt tillvägagångssätt som kallas PS-ABC. Dess algoritm omfattar två delar. En är att den kombinerar idén om artificiell bikoloni (ABC) med den enhetliga slumpmässiga initieringsidén, den binära sökidén och Boltzmanns urvalspolicy för att uppnå en förbättrad ABC-baserad strategi med bättre global prospekteringsförmåga och lokal exploateringsförmåga. Den andra är att den använder Bayes theorem för att ytterligare optimera den förbättrade ABC-baserade processen för att snabbare få den slutliga optimala lösningen. Som ett resultat av detta uppnår hela strategin en mer långsiktig effektiv optimering för energibesparing. De experimentella resultaten visar att PS-ABC uppenbarligen minskar den totala inkrementella strömförbrukningen och bättre skyddar prestandan hos VM-körning och migrering jämfört med den befintliga forskningen. Det gör resultatet av levande VM-migrering mer högeffektivt och meningsfullt.
Gaochao Xu m.fl. REF presenterar ett nytt heuristiskt tillvägagångssätt som kallas PS-ABC.
3,081,607
A Novel Artificial Bee Colony Approach of Live Virtual Machine Migration Policy Using Bayes Theorem
{'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Computer Science', 'Medicine']}
11,992
Inbäddning-baserad enhet anpassning representerar olika kunskapsgrafer (KG) som lågdimensionella inbäddningar och finner enhet anpassning genom att mäta likheterna mellan enhet inbäddningar. Befintliga strategier har dock gett lovande resultat, men de utmanas fortfarande av bristen på tillräcklig föregående anpassning som märkta utbildningsdata. I detta dokument föreslår vi en "boottrapping approach" för att inbädda-baserad enhet anpassning. Den identifierar iterativt sannolik enhetsanpassning som utbildningsdata för att lära sig anpassningsorienterade KG-inbäddningar. Dessutom använder man en anpassningsredigeringsmetod för att minska felackumuleringen under iterationer. Våra experiment om verkliga datauppsättningar visade att det föreslagna tillvägagångssättet betydligt överträffade de toppmoderna inbäddningsbaserade metoderna för enhetsanpassning. Den föreslagna anpassningsorienterade KG-inbäddningsprocessen, bootstrappningsprocessen och anpassningsredigeringsmetoden bidrog alla till prestandaförbättringen.
År 2018, Sun et al. I REF föreslogs en bootstrap-metod baserad på inbäddad enhetsanpassning (BootEA), som iterativt markerar möjliga enhetsanpassningar som utbildningsdata för att lära sig anpassningsorienterad KG inbäddning.
51,605,357
Bootstrapping Entity Alignment with Knowledge Graph Embedding
{'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,993
Illumination spelar en viktig roll i optisk mikroskopi. Köhler belysning, infördes för mer än hundra år sedan, har varit ryggraden i optiska mikroskop. De senaste decennierna har sett utvecklingen av nya belysningstekniker som syftar till att förbättra vissa avbildningsfunktioner i mikroskopet. De flesta av dem är dock inte möjliga för bredfältsobservation och har därför begränsad användning i mikroskopi tillämpningar som cellbiologi och mikroskala profilmätningar. Metoden för strukturerad belysningsmikroskopi har utvecklats som bredfältsteknik för att uppnå högre prestanda. Dessutom är det också kompatibelt med befintliga mikroskop. Denna metod består av att ändra belysningen genom att överlägga med ett väldefinierat mönster, antingen på själva provet eller på dess bild. Beräkningstekniker tillämpas på de resulterande bilderna för att ta bort effekten av strukturen och för att få önskad prestandaförbättring. Denna metod har utvecklats under de senaste två decennierna och har framgått som en viktig belysningsteknik för optisk sektions-, super-upplösnings-avbildning, ytprofilering och kvantitativ fasavbildning av mikroscale objekt i cellbiologi och teknik. I denna genomgång beskriver vi olika strukturerade belysningsmetoder i optisk mikroskopi, och förklarar de principer och tekniker som ingår i den.
Den strukturerade belysningsmikroskopi (SIM) är också en teknik som använder belysningsmönster för olika ändamål såsom super-upplösning, ytprofilering och fasavbildning REF.
118,549,173
Structured illumination microscopy
{'venue': None, 'journal': 'Advances in Optics and Photonics', 'mag_field_of_study': ['Physics']}
11,994
En enhet som utför privata nyckeloperationer (signaturer eller dekrypteringar), och vars privata nyckeloperationer skyddas av ett lösenord, kan immuniseras mot o ine ordbok attacker vid fångst genom att tvinga enheten att kon rm ett lösenord gissning med en utsedd fjärrserver för att utföra en privat nyckel operation. Nya förslag för att uppnå detta tillåter u n betrodda servrar och kräver ingen server initialisering per enhet. I detta dokument utökar vi dessa förslag för att möjliggöra dynamisk delegering från en server till en annan, dvs enheten kan därefter använda den andra servern för att säkra sina privata nyckeloperationer. Ett program är att låta en användare som reser till ett främmande land tillfälligt delegera till en server lokal till det landet möjligheten att kon rm lösenord gissningar och hjälpa användarens enhet att utföra privata nyckeloperationer, eller i gränsen, tillfälligt delegera denna förmåga till en token i användarens besittning. Ett annat program är proaktiv säkerhet för enhetens privata nyckel, dvs. proaktiva uppdateringar av enheten och servrar för att eliminera alla hot om o ine lösenord gissning attacker på grund av tidigare äventyrade servrar.
MacKenzie m.fl. REF tar itu med problemet med serverdelegering i samband med capture-resilient-enheter (dvs. enheter som krävs för att bekräfta lösenords gissningar med en utsedd fjärrserver före privata nyckeloperationer).
53,235,321
Delegation of cryptographic servers for capture-resilient devices
{'venue': "CCS '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
11,995
Vi introducerar en ny maskininlärningsmetod för bildsegmentering som använder ett neuralt nätverk för att modellera den villkorliga energin i en segmentering givet en bild. Vår strategi, combinatorial energiinlärning för bildsegmentering (CELIS) lägger särskild vikt vid att modellera den inneboende kombinatoriska karaktären av täta bildsegmenteringsproblem. Vi föreslår effektiva algoritmer för att lära sig djupa neurala nätverk för att modellera energifunktionen, och för lokal optimering av denna energi i utrymmet för supervoxel tätorter. Vi utvärderar i stor utsträckning vår metod på en allmänt tillgänglig 3D-mikroskopi dataset med 25 miljarder voxels av marksanningsdata. På en 11 miljarder Voxel testuppsättning, finner vi att vår metod förbättrar volymetrisk återuppbyggnad noggrannhet med mer än 20% jämfört med två state-of-the-art baslinjemetoder: graf-baserad segmentering av produktionen av en 3-D konvolutional neurala nätverk tränas för att förutsäga gränser, samt en slumpmässig skog klassificerare tränad till agglomerat supervoxels som genererades av en 3-D konvolutional neurala nätverk.
Inom området för connectomics, Maitin-Shepard et al. REF beskriver CELIS, ett neuralt nätverk tillvägagångssätt för att optimera lokala funktioner i en segmenterad bild.
6,017,788
Combinatorial Energy Learning for Image Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
11,996
Utbildning Deep Neural Networks kompliceras av att fördelningen av varje lagers ingångar förändras under träningen, eftersom parametrarna för de tidigare lagren förändras. Detta saktar ner utbildningen genom att kräva lägre inlärningstakt och noggrann parameter initialisering, och gör det notoriskt svårt att träna modeller med mättande icke-linjäritet. Vi hänvisar till detta fenomen som internt kovariat skifte, och ta itu med problemet genom att normalisera lageringångar. Vår metod tar sin styrka från att göra normalisering en del av modellen arkitektur och utföra normalisering för varje träning mini-batch. Batch Normalization tillåter oss att använda mycket högre inlärningsfrekvenser och vara mindre försiktig med initiering. Det fungerar också som en regularizer, i vissa fall eliminera behovet av avhopp. Basch Normalization tillämpas på en toppmodern bild klassificering modell, uppnår samma noggrannhet med 14 gånger färre träningssteg, och slår den ursprungliga modellen med en betydande marginal. Med hjälp av en ensemble av batchnormaliserade nätverk, vi förbättra på det bäst publicerade resultatet på ImageNet klassificering: nå 4,9% topp-5 valideringsfel (och 4,8% testfel), överstiger noggrannheten hos mänskliga taxrar.
Satsens normalisering REF-teknik påskyndar den djupa nätverksträningen genom att minska den interna kovariatförskjutningen över lager.
5,808,102
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
11,997
Bakgrund: Strukturell analys av cellulära interaktionsnätverk bidrar till en djupare förståelse av nätverksövergripande ömsesidiga beroenden, orsakssamband och grundläggande funktionsförmåga. Även om den strukturella analysen av metaboliska nätverk är ett väletablerat område har liknande metoder knappast utvecklats och tillämpats på signal- och regleringsnät. Vi föreslår formalismer och metoder som bygger på anpassade och delvis nyinförda metoder, som underlättar en strukturell analys av signal- och regleringsnät med fokus på funktionella aspekter. Vi använder två olika formalismer för att representera och analysera interaktionsnätverk: interaktionsgrafer och (logiska) interaktionshypergrafer. Vi visar att i interaktionsdiagram är bestämningen av återkopplingscykler och av alla signaleringsvägar mellan varje par av arter ekvivalent med beräkningen av elementära lägen kända från metaboliska nätverk. Kunskap om uppsättningen signalerande vägar och återkopplingsslingor underlättar beräkningen av interventionsstrategier och klassificeringen av föreningar i aktivatorer, inhibitorer, ambivalenta faktorer och icke-påverkande faktorer med avseende på en viss art. I vissa fall kan kvalitativa effekter som orsakas av störningar klart förutsägas från nätsystemet. Interaktionsgrafer kan dock inte fånga OCH relationer som ofta förekommer i interaktionsnätverk. Den logiska sammanblandningen av alla bågar som pekar in i en art leder till booleska nätverk. För en boolesk representation av cellulära interaktionsnätverk föreslår vi en formalism baserad på logiska (eller undertecknade) interaktionshypergrafer, vilket i synnerhet underlättar en logisk steady state analys (LSSA). LSSA möjliggör studier av logisk bearbetning av signaler och identifiering av optimala interventionspunkter (mål) i cellulära nätverk. LSSA avslöjar också nätverksregioner vars parametrisering och initialtillstånd är avgörande för det dynamiska beteendet. Vi har implementerat dessa metoder i vårt programvaruverktyg CellNetAnalyzer (framgångare av FluxAnalyzer) och illustrerar deras tillämplighet med hjälp av en logisk modell av T-Cell receptor signalering ger icke-intuitiva resultat avseende återkoppling slingor, väsentliga element, och (logisk) signalbehandling på olika stimuli. De metoder och formalismer som vi föreslår häri är ytterligare ett steg mot en omfattande funktionell analys av cellulära interaktionsnätverk. Deras potential, som visas på en realistisk Tcell signalmodell, gör dem till ett lovande verktyg.
Applied to a model of the T-cell receptor signaling between 40 components REF, är vi intresserade av att förhindra aktivering av transkriptionsfaktorn AP 1.
924,590
A methodology for the structural and functional analysis of signaling and regulatory networks
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Biology', 'Computer Science']}
11,998
Abstract-För första gången presenterar detta dokument en analys av prestandan för IEEE 802.15.4 lågeffekt, låg datahastighet trådlös standard i förhållande till medicinska sensor kroppsyta nätverk. Detta är en framväxande tillämpning av trådlösa sensornätverk med särskilda prestandabegränsningar, inklusive strömförbrukning, fysisk storlek, robusthet och säkerhet. I den analys som presenterades beaktades stjärnnätverkskonfigurationen av 802.15.4-standarden vid 2,4 GHz för ett kroppsområdesnät bestående av en bärbar eller skrivbordsmonterad koordinator utanför kroppen med upp till 10 kroppsinplanterade sensorer. Det viktigaste i detta arbete var den långsiktiga strömförbrukningen hos apparater, eftersom implanterade medicintekniska produkter och sensorer av praktiska skäl måste fungera i minst 10 till 15 år utan batteribyte. Resultaten visar att när rätt konfigurerad, 802.15.4 kan användas för medicinsk sensor nätverk när konfigureras i icke-beacon läge med låg datahastighet asymmetrisk trafik. Beacon-läge kan också användas, men med strängare begränsningar av datahastighet och kristalltolerans.
Prestandan av IEEE 802.15.4 analyserades för medicinsk sensor kroppsyta nätverk i REF.
12,285,596
Analysis of the performance of IEEE 802.15.4 for medical sensor body area networking
{'venue': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'journal': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'mag_field_of_study': ['Computer Science']}
11,999
Abstract-A brandvägg är ett paketfilter som placeras vid ingången till ett privat nätverk. Det kontrollerar huvudfälten för varje inkommande paket i det privata nätverket och beslutar, baserat på de angivna reglerna i brandväggen, om att acceptera paketet och tillåta det att fortsätta, eller att kassera paketet. En egenskap hos en brandvägg är en uppsättning paket som brandväggen är skyldig att acceptera eller kassera. Associeras med varje brandvägg är en mycket stor uppsättning egenskaper som brandväggen behöver för att tillfredsställa. Utrymmet och tids komplexiteten hos den mest kända deterministiska algoritmen, för att verifiera att en given brandvägg uppfyller en viss egenskap, är O(n d ), där n är antalet regler i den givna brandväggen och d är antalet fält som kontrolleras av brandväggen. Vanligtvis är n runt 2000 och d är 5. I detta dokument föreslår vi den första deterministiska brandväggsverifieringsalgoritmen vars rymdkomplexitet är O(nd), linjär i både n och d. Denna algoritm består av tre komponenter: ett projektionspass, ett divisionspass och en sondalgoritm. Vi tillämpade vår verifieringsalgoritm till över två miljoner brandvägg-fastighet par, varierande n från 100 till 10000 och fastställande d på 5. Från detta experiment, Vi observerade att algoritmen kräver (900 + 0.5n) Kilobytes av lagring och i storleksordningen 10 sekunder exekveringstid.
En brandväggsverifieringsalgoritm som kräver O(n d ) (n = antal regler, d = antal dimensioner) utrymmeskomplex finns i REF.
15,101,251
Projection and Division: Linear-Space Verification of Firewalls
{'venue': '2010 IEEE 30th International Conference on Distributed Computing Systems', 'journal': '2010 IEEE 30th International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
12,000
ABSTRACT Nätets förtätning av små celler är ett lovande sätt att hantera den explosiva tillväxten av framtida trafikbehov i 5G-nät. Den totala strömförbrukningen och den backhaul begränsningen av nätet har dock blivit de viktigaste faktorerna som påverkar nätprestandan och användarnas erfarenhetskvalitet, som har stor betydelse i 5G trådlösa nät. På grund av komplexiteten i 5G-nätverk och mångfalden av användarbeteenden kan kombinationen av programvarudefinierade nätverk och strategi för leverans av innehåll vara ett effektivare sätt att hantera sådana nätverk. I detta dokument föreslås ett cacheaktiverat trådlöst heterogent nätverk med kontrollplan (C-plane) och användarplan (U-plane) split, där makrocellen och SC med olika cachekapacitet överlagras och samarbetar i backhaulscenariot. Använda ett utvärderingsverktyg som består av stokastiska processer och klassisk energiförbrukningsmodell, viktiga prestandaindikatorer, t.ex. täckningssannolikhet, genomströmning och energieffektivitet (EE), härleds som slutna formuttryck eller funktioner för signal-till-interference-plus-bruse-förhållande tröskel, väg förlust exponent, överföringseffekt och densitet av makro och SCs, cache förmåga, fil popularitet och backhaul kapacitet. Grundläggande avvägningar illustreras mellan EE- och överföringseffekt, EE- och SC-densitet samt genomströmning och täthet hos SC-enheter. Numeriska resultat visar att de föreslagna cache-aktiverade programvarudefinierade nätverken har mycket högre genomströmning och förbättrad EE än nuvarande LTE-nätverk, vilket visar en lovande lösning för framtida cellulära nätverk. INDEX TERMS Cache-aktiverade nätverk, programvarudefinierade nätverk, grön kommunikation, spektral och energieffektivitet, täckningsannolikhet, kompromiss.
I arbetet med REF presenterades en cacheaktiverad programvara definierad HetNet bestående av kontrollplan (C-plane) och användarplan (Uplane) och analyserade energieffektivitetsprestandan med antagandet att makro BS och små BS samarbetar med olika cacheegenskaper.
12,346,753
Cache-Enabled Software Defined Heterogeneous Networks for Green and Flexible 5G Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
12,001
Syftet med detta dokument är att presentera en översyn av nya och klassiska metoder för bildregistrering. Bildregistrering är processen att överlagra bilder (två eller fler) av samma scen tagna vid olika tidpunkter, från olika synvinklar och/eller av olika sensorer. Registreringen anpassar geometriskt två bilder (referens- och avkänningsbilder). De granskade tillvägagångssätten klassificeras efter sin karaktär (områdesbaserad och funktionsbaserad) och enligt fyra grundläggande steg i förfarandet för bildregistrering: funktionsdetektering, funktionsmatchning, karteringsfunktionens utformning samt bildomvandling och omsampling. De viktigaste bidragen, fördelarna och nackdelarna med metoderna nämns i dokumentet. Problematiska frågor om bildregistrering och framtidsutsikter för den framtida forskningen diskuteras också. Huvudsyftet med dokumentet är att tillhandahålla en heltäckande referenskälla för de forskare som deltar i bildregistreringen, oberoende av särskilda användningsområden. q ska tillämpas från och med den 1 januari 2016 till och med den 31 december 2018.
Zitova och Flusser REF presenterade en översyn av metoder för bildregistrering.
206,051,485
Image registration methods: a survey
{'venue': 'Image and Vision Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,002
Abstract-The macro base station (BS) utbyggnader i moderna cellulära nätverk är varken regelbundna eller helt slumpmässiga. Vi använder DPP-modeller (determinal point process) för att studera repulsiviteten hos makrobasstationer som observerats i cellulära nätverk. Tre DPP-modeller är monterade på basstationers lokaliseringsdata från två större städer i USA. Hypotestester används för att validera lämpligheten för dessa DPP-modeller. Baserat på prestandamått inklusive K-funktionen, sannolikheten för L-funktion och täckning visas DPP-modeller vara korrekta vid modellering av verkliga BS-utplaceringar. Tvärtom har Poissons punktprocess och perturbed hexagonal rutnätsmodell visat sig vara mindre realistisk. Olika DPP-modeller jämförs, och flera beräkningsegenskaper av dessa modeller diskuteras också.
I REF påvisas att den avgörande punktprocessen (DPP) på ett korrekt sätt representerar de regulariteter som förekommer i basstationer för en enda operatör.
6,716,065
Fitting determinantal point processes to macro base station deployments
{'venue': '2014 IEEE Global Communications Conference', 'journal': '2014 IEEE Global Communications Conference', 'mag_field_of_study': ['Computer Science']}
12,003
I detta dokument diskuteras en särskild typ av kommunikationsscenario för flera användare, där användarnas allmännyttiga tjänster påverkas linjärt av konkurrenternas åtgärder. För det första karakteriserar vi uttryckligen Nash-balansen och Pareto-gränsen för den allmännyttiga regionen. För det andra kvantifieras priset på anarki som uppstått till följd av den icke-samarbetande Nash-strategin. För det tredje, för att förbättra prestandan i de icke-kooperativa scenarierna, undersöker vi egenskaperna hos ett alternativt lösningskoncept som kallas konjektiv jämvikt, där enskilda användare kompenserar för sin brist på information genom att bilda interna uppfattningar om sina konkurrenter. Den globala konvergensen av det bästa svaret och Jacobi uppdatera dynamik som uppnår olika konjecturala jämvikt analyseras. Det visas att Paretos gränser för de undersökta linjärt kopplade spelen kan upprätthållas som stabil konjectural jämvikt om trosfunktionerna är ordentligt initierade. De undersökta modellerna gäller för en mängd olika realistiska applikationer som stöter på i flera åtkomstkonstruktioner, inklusive trådlös slumpmässig åtkomst och flödeskontroll.
I ett annat, nyare arbete, REF, Su och van der Schaar har diskuterat linjärt kopplade kommunikationsspel där användarnas verktyg påverkas linjärt av sina konkurrenters åtgärder.
2,425,799
Linearly Coupled Communication Games
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,004
Sammanfattning Att övervaka utvecklingen av auktioner för bedräglig budgivning är avgörande för att upptäcka och stoppa bedrägerier under drift för att förhindra att bedragare lyckas. I detta syfte inför vi en etappbaserad ram för övervakning av flera liveauktioner för bedrägeri i samband med intrång (IAF). Att skapa ett system för att övervaka bedrägerier i ett skede skiljer sig från vad som tidigare föreslagits i de mycket begränsade studierna om upptäckt av IAF på drifttid. Närmare bestämt inleder vi IAF:s övervakningsverksamhet vid flera tidpunkter i varje pågående auktion beroende på dess varaktighet. Vid varje auktionstidpunkt upptäcker vårt ramverk först IAF genom att utvärdera varje budgivares etappverksamhet baserad på den mest tillförlitliga uppsättningen IAF-mönster, och sedan vidta lämpliga åtgärder för att reagera på oärliga budgivare. Vi utvecklar det föreslagna ramverket med en dynamisk agentarkitektur där flera övervakningsagenter kan skapas och raderas med avseende på statusen för deras motsvarande auktioner (initierade, slutförda eller inställda). Antagandet av dynamisk programvaruarkitektur är en utmärkt lösning på skalbarhets- och tidseffektivitetsproblemen i IAF:s övervakningssystem eftersom hundratals liveauktioner hålls samtidigt i kommersiella auktionshus. Varje gång en auktion slutförs eller avslutas uppdateras deltagarnas bedrägeripoäng dynamiskt. Vår strategi gör det möjligt för oss att observera varje budgivare i varje live auktion och hantera hans bedrägeri poäng också. Vi validerar IAF:s övervakningstjänst genom kommersiella auktionsdata. Vi utför tre experiment för att upptäcka och reagera på shill-budding bedrägeri genom att använda dataset förvärvade Samira Sadaoui [email protected] 1 University of Regina, Regina, SK Kanada från auktioner av två värdefulla objekt, Palm PDA och XBOX. Vi observerar varje auktion vid tre tidpunkter, verifierar shill mönster som sannolikt sker i motsvarande skede för varje.
Senare Sadaoui m.fl. I REF föreslås ett stegbaserat övervakningssystem för drifttid som upptäcker bedrägeri i samband med försäljning i samband med auktion genom övervakning av varje budgivares verksamhet i pågående auktioner.
33,236,328
A dynamic stage-based fraud monitoring framework of multiple live auctions
{'venue': 'Applied Intelligence', 'journal': 'Applied Intelligence', 'mag_field_of_study': ['Computer Science']}
12,005
Nästan alla komplexa mjukvarusystem idag är konfigurerbara. Konfigurerbarhet har många fördelar, men utmanar prestandaprognoser, optimering och felsökning. Ofta är inverkan av individuella konfigurationsalternativ på prestanda okänd. Värre, konfigurationsalternativ kan interagera, vilket ger upphov till en konfiguration utrymme av möjligen exponentiell storlek. För att ta itu med denna utmaning föreslår vi ett tillvägagångssätt som bygger på en prestandainfluenssmodell för ett givet konfigurerbart system, som beskriver alla relevanta influenser från konfigurationsalternativ och deras interaktioner. Vårt tillvägagångssätt kombinerar maskininlärning och provtagning av heuristik på ett nytt sätt. Det förbättrar över standard tekniker genom att det (1) representerar influenser av alternativ och deras interaktioner uttryckligen (som underlättar felsökning), (2) smidigt integrerar binära och numeriska konfigurationsalternativ för första gången, (3) innehåller domän kunskap, om tillgänglig (som underlättar inlärning och ökar noggrannhet), (4) anser komplexa begränsningar bland alternativ, och (5) systematiskt minskar lösningen utrymme till en dragbar storlek. En rad experiment visar genomförbarheten av vårt tillvägagångssätt när det gäller noggrannheten hos de modeller man lärt sig och exaktheten i de förutsägelser man kan göra med dem.
Siegmund m.fl. REF kombinerade maskininlärning och provtagning heuristik för att beräkna de individuella influenserna av konfigurationsalternativ och deras interaktioner.
1,388,079
Performance-influence models for highly configurable systems
{'venue': 'ESEC/FSE 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,006
Att lära sig finkornig bildlikhet är en utmanande uppgift. Det måste fånga mellan klass och inom klass bildskillnader. Detta dokument föreslår en djup ranking modell som använder djupinlärning tekniker för att lära likhet metriska direkt från bilder. Den har högre inlärningsförmåga än modeller baserade på handgjorda funktioner. En ny flerskalig nätverksstruktur har utvecklats för att beskriva bilderna på ett effektivt sätt. En effektiv triolprovtagningsalgoritm föreslås för att lära sig modellen med distribuerad asynkroniserad stokastisk lutning. Omfattande experiment visar att den föreslagna algoritmen överträffar modeller baserade på handgjorda visuella funktioner och djupa klassificeringsmodeller.
Wang m.fl. REF lärde sig finkornig bild likhet med djup ranking modell.
3,732,882
Learning Fine-Grained Image Similarity with Deep Ranking
{'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
12,007
Relationsklassificering är en viktig forskningsarena inom området för behandling av naturligt språk (NLP). I detta dokument presenterar vi SDP-LSTM, ett nytt neuralt nätverk för att klassificera relationen mellan två enheter i en mening. Vår neurala arkitektur utnyttjar den kortaste beroendevägen (SDP) mellan två enheter; flerkanaliga återkommande neurala nätverk, med långtidsminne (LSTM) enheter, plocka upp heterogen information längs SDP. Vår föreslagna modell har flera olika egenskaper: (1) De kortaste beroendevägarna behåller mest relevant information (till relationsklassificering), samtidigt som irrelevanta ord i meningen elimineras. (2) Flerkanaliga LSTM-nätverk gör det möjligt att effektivt integrera information från heterogena källor över beroendevägarna. (3) En skräddarsydd avhoppsstrategi legaliserar det neurala nätverket för att lindra överbemanning. Vi testar vår modell på SemEval 2010 relation klassificering uppgift, och uppnå en F 1 - score på 83,7%, högre än konkurrerande metoder i litteraturen.
REF plockade upp heterogen information längs vänster och höger sub-path av SDP respektive, utnyttja återkommande neurala nätverk med långtidsminnesenheter.
5,403,702
Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Path
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,008
Framsteg i djup förstärkning inlärning har gjort det möjligt autonoma agenter att prestera bra på Atari spel, ofta outperforming människor, med bara rå pixlar för att fatta sina beslut. De flesta av dessa spel äger dock rum i 2D-miljöer som är fullt observerbara för agenten. I detta papper presenterar vi den första arkitekturen för att ta itu med 3D-miljöer i första person shooter spel, som innebär delvis observerbara tillstånd. Vanligtvis använder djupt förstärkande inlärningsmetoder endast visuell input för träning. Vi presenterar en metod för att öka dessa modeller för att utnyttja spelfunktionsinformation såsom närvaron av fiender eller objekt, under utbildningsfasen. Vår modell är tränad att samtidigt lära sig dessa funktioner tillsammans med minimering av ett Q-lärande mål, vilket visar sig dramatiskt förbättra träningshastigheten och prestandan hos vår agent. Vår arkitektur är också modulariserad så att olika modeller kan tränas självständigt för olika faser av spelet. Vi visar att den föreslagna arkitekturen avsevärt överträffar inbyggda AI-agenter i spelet samt människor i dödsmatch scenarier.
REF visade att det är fördelaktigt att förutsäga emulatorns interna egenskaper, t.ex. närvaron av en fiende på skärmen.
13,973,139
Playing FPS Games with Deep Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,009
Abstrakt. De likhetsåtgärder som hittills använts i första ordningens IBL har begränsats till det funktionsfria fallet. I detta dokument visar vi att en hel del makt kan vinnas genom att tillåta listor och andra termer i input representation och utforma likhetsåtgärder som fungerar direkt på dessa strukturer. Vi presenterar en förbättrad likhetsmått för den första ordningen instansbaserade eleven RISBL som använder begreppet redigeringsavstånd för att effektivt beräkna avstånd mellan listor och termer, diskutera dess beräknings- och formella egenskaper, och empiriskt visa sin extra kraft på ett problem från området biokemi. I tidningen ingår också en grundlig rekonstruktion av RICB:s övergripande algoritm.
REF presenterade en förlängning av RISBL som kan hantera listor och villkor.
2,902,719
Relational Instance-Based Learning with Lists and Terms
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,010
Vi presenterar en algoritm för att separera lokal gradientinformation och Lambertisk färg genom att använda 4-käll färgfotometrisk stereo i närvaro av höjdpunkter och skuggor. Vi antar att ytreflektansen kan approximeras av summan av en Lambertian och en speculär komponent. Den konventionella fotometriska metoden är generaliserad för färgbilder. Skuggor och höjdpunkter i indatabilderna detekteras med antingen spektral- eller riktningssignaler och utesluts från återhämtningsprocessen, vilket ger mer tillförlitliga uppskattningar av lokala ytparametrar.
Höjdpunkter och skuggdetektering sker på samma sätt som Barsky och Petrou Ref.
1,239,004
The 4-source photometric stereo technique for three-dimensional surfaces in the presence of highlights and shadows
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
12,011
Detta dokument handlar om randomiserade ledarval i synkrona distribuerade nätverk. En distribuerad ledare valalgoritm presenteras för kompletta n-node nätverk som körs i O(1) rundor och (med hög sannolikhet) använder endast O( ε n log 3/2 n) meddelanden för att välja en unik ledare (med hög sannolikhet). När vi överväger "explicit" varianten av ledarval där så småningom varje nod känner till ledarens identitet, ger vår algoritm de asymptotiskt optimala gränserna för O(1) rundor och O(n) meddelanden. Denna algoritm utvidgas sedan till att omfatta ett val av ledare på alla anslutna icke-bipartite n-node graf G i O(τ (G) tid och O(τ (G) ε n log 3/2 n) meddelanden, där τ (G) är blandningstiden för en slumpmässig gång på G. Ovanstående resultat innebär mycket effektiv (sublinjär körtid och meddelanden) ledare valalgoritmer för nätverk med små blandningstider, såsom expanderare och hyperkuber. Däremot hade tidigare ledare valalgoritmer åtminstone linjära budskap komplexitet även i kompletta grafer. Dessutom är superlinjära budskap lägre gränser kända för tidseffektiva deterministiska ledare valalgoritmer. Slutligen presenterar vi en nästan matchande lägre gräns för det randomiserade valet av ledare, vilket visar att det behövs meddelanden för alla ledare valalgoritmer som med sannolikhet lyckas minst 1/e + ε, för alla små konstant ε > 0. Vi ser våra resultat som ett steg mot att förstå den randomiserade komplexiteten i ledarval i distribuerade nätverk.
Som tidigare nämnts, för fullständiga grafer, Kutten et al. REF visade att det är den snäva meddelande komplexiteten som är knuten till det randomiserade (implicita) valet av ledare.
14,276,132
Sublinear Bounds for Randomized Leader Election
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,012
Abstract-I detta dokument presenterar vi en information fusion baserad distribuerade anomali detektionssystem för Android mobiltelefoner. Det föreslagna ramverket realiserar en klientserverarkitektur, klienten extraherar kontinuerligt olika funktioner och överföringar till servern, och serverns huvudsakliga uppgift är att upptäcka anomali med hjälp av toppmoderna detektionsalgoritmer som implementeras som anomalidetektorer. Flera distribuerade servrar analyserar samtidigt funktionen vektor med hjälp av olika detektorer och informationsfusion används för att sammansmälta resultaten av detektorer. Vi föreslår också en cykelbaserad statistisk metod för upptäckt av smartphone anomalier eftersom smartphone-användare brukar följa regelbundna mönster på grund av sina periodiska livsmönster. Empiriska resultat tyder på att det föreslagna ramverket och nya anomali detektionsalgoritm är effektiva för att upptäcka skadlig kod på Android-enheter.
Wu och Al. REF, föreslog en ram för klient-server arkitektur där mobilagenten kontinuerligt extraherade olika funktioner och skicka till servern för att upptäcka anomali med hjälp av anomali detektorer.
351,034
A Result Fusion based Distributed Anomaly Detection System for Android Smartphones
{'venue': 'J. Networks', 'journal': 'J. Networks', 'mag_field_of_study': ['Computer Science']}
12,013
Abstract Machine lärande metoder i känsloanalys främst förlitar sig på överflöd av resurser. För att begränsa detta beroende föreslår vi en ny metod som kallas Siamese Network Architecture for Sentiment Analysis (SNASA) för att lära sig representationer av resursfattiga språk genom att tillsammans utbilda dem med resursrika språk med hjälp av ett siamesenätverk. SNASA-modellen består av två tvåvägslångt kortfristigt minne Recurrent Neural Networks (Bi-LSTM RNN) med delade parametrar förenade med en kontrasterande förlustfunktion, baserat på en likhetsmått. Modellen lär sig meningen representationer av resursfattiga och resursrika språk i en gemensam känsla utrymme genom att använda en likhetsmått baserat på deras individuella känslor. Modellen projicerar därför meningar med liknande känslor närmare varandra och meningarna med olika känslor längre bort från varandra. Experiment på storskaliga datauppsättningar av resursrika språk -Engelska och spanska och resursfattiga språk -Hindi och Telugu avslöjar att SNASA överträffar de state-of-the-art känsloanalys metoder som bygger på distributionssemantik, semantiska regler, lexikonlistor och djupa neurala nätverk representationer utan delade parametrar.
För att minimera beroendet av maskininlärning (ML) metoder för känsloanalys på överflöd av corpus, föreslår detta dokument en ny metod för att lära sig representationer av resursfattiga språk genom att utbilda dem tillsammans med resursrika språk med hjälp av ett siamese nätverk REF.
4,717,191
Emotions are Universal: Learning Sentiment Based Representations of Resource-Poor Languages using Siamese Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,014
Den slumpmässiga surfarmodellen är en ofta använd modell för att simulera användarens navigeringsbeteende på webben. Olika algoritmer, såsom PageRank, bygger på antagandet att modellen representerar en bra approximation av användare som surfar på en webbplats. Men hur användare surfar på webben har drastiskt förändrats under det senaste årtiondet på grund av ökningen av sökmotorer. Därför kan det krävas nya anpassningar för den etablerade slumpmässiga surfarmodellen, som bättre fångar upp och simulerar denna förändring i navigeringsbeteendet. I den här artikeln jämför vi den klassiska enhetliga slumpmässiga surfaren med empirisk navigering och sidåtkomstdata i ett Web Encyclopedia. Våra högnivåbidrag är (i) en jämförelse av stationära distributioner av olika typer av slumpmässiga surfare för att kvantifiera likheter och skillnader mellan dessa modeller samt (ii) nya insikter om hur sökmotorer påverkar traditionell användarnavigering. Våra resultat tyder på att beteendet hos den slumpmässiga surfare är nästan lik dem av användare-så länge användare inte använder sökmotorer. Vi finner också att klassiska website navigation strukturer, såsom navigation hierarkier eller brödsmulor, bara utövar begränsad påverkan på användaren navigering längre. Snarare, en ny typ av navigeringsverktyg (t.ex., rekommendationssystem) kan behövas för att bättre återspegla förändringar i beter beteendet hos befintliga användare.
Geigl m.fl. tyder på att beteendet hos en slumpmässig surfare liknar nästan riktiga användare, så länge de inte använder sökmotorer REF.
3,197,004
Random surfers on a web encyclopedia
{'venue': "i-KNOW '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
12,015
....................................... Översikt över ett klusterdiagram från SOMFlow som skapades under vår expertstudie för att analysera talintonation: Först identifieras en könseffekt (A) och tas bort med hjälp av en domänspecifik semitonnormalisering (B). Analytikern skapade mer detaljerade SOM för artificiella celler och lade till manuella annoteringar (C) för att filtrera buller som orsakas av mätfel. Den resulterande SOM avslöjar en relation till planen meta-attribute (D) och ytterligare datapartitioner gör det möjligt för analytikern att jämföra tonhöjd konturer av olika högtalargrupper. Abstract-Clustering är en central byggsten för dataanalys, som syftar till att extrahera annars dolda strukturer och relationer från råa dataset, såsom särskilda grupper som effektivt kan relateras, jämföras och tolkas. En uppsjö av visuella-interaktiva klusteranalystekniker har hittills föreslagits, men att komma fram till användbara kluster kräver ofta flera omgångar av användarinteraktioner för att finjustera data förbehandling och algoritmer. Vi presenterar en flerstegs Visual Analytics (VA) metod för iterativ klusterförfining tillsammans med en implementation (SMFlow) som använder Självorganiserande kartor (som) för att analysera tidsseriedata. Den stödjer prospektering genom att erbjuda analytikern en visuell plattform för att analysera mellanliggande resultat, anpassa de underliggande beräkningarna, iterativt partitionera data, och för att återspegla tidigare analytiska aktiviteter. Historien om tidigare beslut är explicit visualiseras i ett flöde diagram, vilket gör det möjligt att jämföra tidigare klusterförfiningar och utforska relationer. Vi utnyttjar ytterligare kvalitets- och intressanta åtgärder för att vägleda analytikern i upptäckten av användbara mönster, relationer och datapartitioner. Vi genomförde två paranalysexperiment tillsammans med en ämnesexpert inom talintonationsforskning för att visa att tillvägagångssättet är effektivt för interaktiv dataanalys, vilket stöder ökad förståelse av klusterresultat samt den interaktiva processen i sig.
SOMFlow REF kan iterativt facettera och förfina kluster, med historien om tidigare beslut visualiserade i ett flöde diagram.
3,056,598
SOMFlow: Guided Exploratory Cluster Analysis with Self-Organizing Maps and Analytic Provenance
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,016
För uppgiften att känna igen dialogakter tillämpar vi maskininlärningsalgoritmen Transformation-Based Learning (TBL). För att kringgå ett glest dataproblem utvinner vi värden av välmotiverade inslag i uttalanden, såsom talarriktning, interpunktionstecken och en ny funktion som kallas dialoghandlingssignaler, som vi finner vara mer effektiva än köfraser och ord n-gram i praktiken. Vi presenterar strategier för att bygga upp en uppsättning dialoger automatiskt genom att minimera entropin i fördelningen av dialoger i ett utbildningsorgan, filtrera bort irrelevanta dialoger och samla semantiskt relaterade ord. För att ta itu med begränsningarna i TBL inför vi dessutom en Monte Carlo-strategi för effektiv utbildning och en kommittémetod för att beräkna förtroendeåtgärder. Dessa idéer kombineras i vår arbetsimplementation, som anger data som hålls ut lika exakt som alla andra rapporterade system för dialog agera taggning uppgift.
Till exempel använde REF egenskaperna hos talade dialoger och granskade talarriktning, interpunktionstecken, köfraser och ngram för att klassificera talade dialoger.
643,470
Dialogue Act Tagging with Transformation-Based Learning
{'venue': 'COLING-ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,017