src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-Nu en dag, Data Engineering blir framväxande trend att upptäcka kunskap från webb audiovisuella data som-YouTube videor, Yahoo Screen, Face Book videor etc. Olika kategorier av webbvideo delas på sådana sociala webbplatser och används av miljarder användare över hela världen. De uppladdade webbvideorna kommer att ha olika typer av metadata som attributinformation om videodata. Metadataattributen definierar innehåll och funktioner/kännetecken för webbvideorna på ett konceptuellt sätt. Därför är det en utmanande uppgift att utföra webbvideobrytning genom att extrahera funktioner i webbvideor när det gäller metadata. I detta arbete görs effektiva försök att klassificera och förutsäga metadatafunktioner i webbvideor såsom längd på webbvideor, antal kommentarer av webbvideor, betygsinformation och vyräkningar av webbvideor med hjälp av data mining algoritmer såsom beslut träd J48 och navie Bayesian algoritmer som en del av web video mining. Resultaten av beslutsträdet J48 och navie Bayesian klassificeringsmodeller analyseras och jämförs som ett steg i processen för kunskapsupptäckt från webbvideor. | Resultatet av experimentet med REF anses vara bra. | 26,916,995 | Web Video Mining: Metadata Predictive Analysis using Classification Techniques | {'venue': None, 'journal': 'International Journal of Information Technology and Computer Science', 'mag_field_of_study': ['Computer Science']} | 1,735 |
Sambandet mellan två växande teknikområden - samverkan och visualisering - i en ny forskningsriktning, samverkande visualisering, ger nya forskningsutmaningar. Tekniken gör det nu möjligt för oss att enkelt ansluta och samarbeta med varandra -i inställningar så olika som över nätverksdatorer, över mobila enheter, eller använda delade bildskärmar som interaktiva väggar och bordsytor. Digital information är nu regelbundet tillgänglig av flera personer för att dela information, för att visa den tillsammans, för att analysera den, eller för att bilda beslut. Visualiseringar används för att hantera mer effektivt med stora mängder information medan interaktiva visualiseringar gör det möjligt för användare att utforska de underliggande data. Samtidigt som forskare möter många utmaningar i samverkan och visualisering innebär uppkomsten av samverkande visualisering ytterligare utmaningar, men det är också en spännande möjlighet att nå nya målgrupper och tillämpningar för visualiseringsverktyg och tekniker. Syftet med denna artikel är (1) att ge en definition, tydlig räckvidd och översikt över det framväxande området för samverkansvisualisering, (2) att hjälpa till att identifiera det unika fokuset för samverkansvisualisering med dess specifika aspekter, utmaningar och krav inom skärningspunkten mellan allmänt datorstödd samverkansarbete och visualiseringsforskning, och (3) att uppmärksamma viktiga framtida forskningsfrågor som ska behandlas av samhället. Vi avslutar med att diskutera en forskningsagenda för framtida arbete med samverkande visualiseringar och driva på en ny generation av visualiseringsverktyg som är utformade med samverkan i åtanke från själva starten. | Isenberg m.fl. REF ger en bra översikt över definitioner, uppgifter och provvisualiseringar inom området samverkansvisualisering. | 12,372,288 | Collaborative visualization: Definition, challenges, and research agenda | {'venue': None, 'journal': 'Information Visualization', 'mag_field_of_study': ['Computer Science']} | 1,736 |
Bildbehandling pipelines kombinerar utmaningarna med schablonberäkningar och stream program. De består av stora grafer av olika stencilstadier, komplexa reduceringar och stadier med globala eller databeroende åtkomstmönster. På grund av deras komplexa struktur, prestandaskillnaden mellan en naiv implementering av en pipeline och en optimerad en är ofta en storleksordning. Effektiva implementeringar kräver optimering av både parallellism och lokalitet, men på grund av stencilernas natur finns det en grundläggande spänning mellan parallellism, lokalitet och införande av redundant recomputation av delade värden. Vi presenterar en systematisk modell av tradeoff utrymme grundläggande till schablon pipelines, en schema representation som beskriver konkreta punkter i detta utrymme för varje steg i en bildbehandling pipeline, och en optimerande kompilator för Halide bildbehandlingsspråk som syntetiserar högpresterande implementationer från en Halide algoritm och ett schema. Genom att kombinera denna kompilator med stokastisk sökning över scheman möjliggörs terse, kompatibla program för att uppnå state-of-the-art prestanda på ett brett spektrum av verkliga bildbehandling pipelines, och över olika maskinvaruarkitekturer, inklusive multicores med SIMD, och heterogen CPU+GPU exekvering. Från enkla Halide program skrivna på några timmar, visar vi prestanda upp till 5× snabbare än handjusterade C, inneboende, och CUDA implementationer optimeras av experter över veckor eller månader, för bildbehandling program utom räckhåll för tidigare automatiska kompilatorer. | Bland dem finns Halide REF som föreslår en optimering och parallellisering av en rörledning av stenciler. | 54,165,200 | Halide: a language and compiler for optimizing parallelism, locality, and recomputation in image processing pipelines | {'venue': 'PLDI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,737 |
Cloud computing är en nyutvecklad forskningsinfrastruktur som bygger på de senaste landvinningarna inom olika forskningsområden, såsom Grid computing, Serviceorienterad databehandling, affärsprocesser och virtualisering. I det här dokumentet presenterar vi en arkitektur för SLA-baserad resursvirtualisering som ger en omfattande lösning för att köra användarapplikationer i moln. Detta arbete är det första försöket att kombinera SLA-baserade resursförhandlingar med virtualiserade resurser när det gäller tillhandahållande av tjänster på begäran, vilket resulterar i en helhetssyn på virtualisering. Arkitekturbeskrivningen fokuserar på tre ämnen: avtalsförhandlingar, förmedling av tjänster och distribution med hjälp av virtualisering. Bidraget visas också med en verklig fallstudie. | Det arbete som presenteras i (A. Ref ) är ett första förslag om att kombinera SLA-baserade resursförhandlingar med virtualiserade resurser när det gäller tillhandahållande av tjänster på begäran. | 11,448,481 | An SLA-based resource virtualization approach for on-demand service provision | {'venue': "VTDC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,738 |
Abstrakt. Böhm-Jacopini-teoremet (Böhm och Jacopini, 1966) är ett klassiskt resultat av programschemat. Den säger att alla deterministiska flödesdiagram program är likvärdiga med en tid program. Teoremet är vanligtvis formulerat på första ordningen tolkad eller första ordningen otolkad (schematic) nivå, eftersom konstruktionen kräver införandet av hjälpvariabler. Ashcroft och Manna (1972) och Kosaraju (1973) visade att detta är oundvikligt. Som observerats av ett antal författare, en något mer kraftfull strukturerad programmering konstruktion, nämligen loop program med flera nivåer avbrott, är tillräckligt för att representera alla deterministiska flödesscheman utan att införa hjälpvariabler. Kosaraju (1973) upprättade en strikt hierarki som bestämdes av det högsta tillåtna bodjupet. I detta dokument ger vi en rent propositionell redogörelse för dessa resultat. Vi omformulerar problemen på propositionsnivå i termer av automata på bevakade strängar, den automatiska-teoretiska motsvarigheten till Kleene algebra med tester. Medan de klassiska tillvägagångssätten inte skiljer mellan första ordningens och propositionsnivåernas abstraktion, finner vi att den rent propositionella formuleringen möjliggör en mer strömlinjeformad matematisk behandling, med algebraiska och topologiska begrepp som bisimulation och myntinduktion. Med hjälp av dessa verktyg kan vi ge mer matematiskt rigorösa formuleringar och enklare och mer avslöjande bevis. | Det visades i REF ] att en rent propositionell formulering av Böhm-Jacopini teorem är falsk: det finns en trestats deterministisk promotionell flödesschema som inte är likvärdigt med någon proposition medan programmet. | 16,518,543 | The Böhm–Jacopini Theorem is False, Propositionally | {'venue': 'MPC', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,739 |
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder. | Dessutom föreslogs InfoGAN i REF, där ömsesidig information mellan en latent variabel och de genererade bilderna maximeras. | 5,002,792 | InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 1,740 |
Två framväxande maskinvarutrender kommer att dominera databassystemets teknik inom en snar framtid: att öka den huvudsakliga minneskapaciteten för flera TB per server och massivt parallell flerkärnig bearbetning. Många algoritmiska och styrtekniker inom aktuell databasteknik utformades för diskbaserade system där I/O dominerade prestandan. I detta arbete tar vi en ny titt på den välkända sort-sammanfogning som hittills inte har varit i fokus för forskning i skalbar parallell multi-core databehandling eftersom det ansågs sämre att hash går med. Vi utformar en svit av ny massivt parallell sort-sammanfogning (MPSM) gå algoritmer som är baserade på partiell partition-baserad sortering. I motsats till klassisk sort-sammanslagning går, våra MPSM algoritmer inte förlita sig på en svår att parallellisera slutliga sammanfogning steg för att skapa en komplett sortering ordning. Snarare arbetar de på de självständigt skapade löper parallellt. På så sätt är våra MPSM-algoritmer NUMA-affin eftersom all sortering utförs på lokala minnespartitioner. En omfattande experimentell utvärdering av en modern 32-kärnig maskin med en tbc av huvudminnet bevisar MPSM:s konkurrenskraftiga prestanda på stora huvudminnesdatabaser med miljarder objekt. Det skalar (nästan) linjärt i antalet anställda kärnor och klart överträffar konkurrerande hash gå med i förslag -i synnerhet det överträffar den "skärkant" Vectorwise parallell frågemotor med en faktor av fyra. | Albutiu m.fl. REF utforma en svit av nya massivt parallella sort-sammanfogning (MPSM) gå algoritmer som är baserade på partiell partition-baserad sortering. | 1,084,527 | Massively Parallel Sort-Merge Joins in Main Memory Multi-Core Database Systems | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 1,741 |
Onlinerecensioner spelar en avgörande roll i dagens elektroniska handel. Det är önskvärt för en kund att läsa recensioner av produkter eller butiker innan man fattar beslut om vad eller varifrån man ska köpa. På grund av de genomgripande spam recensioner, kan kunderna vilseledas att köpa produkter av låg kvalitet, medan anständiga butiker kan förtalas av skadliga recensioner. Vi observerar att i verkligheten skriver en stor del (> 90% i de data vi studerar) av recensenterna endast en recension (singleton review). Dessa recensioner är så enorma till antalet att de nästan kan avgöra en butiks betyg och intryck. Befintliga metoder undersökte dock inte denna större del av översynerna. Är de flesta av dessa singleton recensioner sanningsenliga? Om inte, hur upptäcker man spam recensioner i singleton recensioner? Vi kallar detta problem singleton granska skräppost upptäckt. För att ta itu med detta problem observerar vi att de normala granskarnas ankomstmönster är stabilt och okorrelerat med deras betygsmönster tidsmässigt. Däremot är skräppostattacker vanligtvis spruckna och antingen positivt eller negativt korrelerade till kreditbetyget. Därför föreslår vi att man upptäcker sådana attacker via ovanligt korrelerade temporalmönster. Vi identifierar och konstruerar flerdimensionella tidsserier baserade på aggregerad statistik, för att skildra och bryta sådana korrelationer. På så sätt kartläggs problemet med att upptäcka skräppost med singleton till ett onormalt korrelerat problem med att upptäcka mönster. Vi föreslår en hierarkisk algoritm för att på ett kraftfullt sätt upptäcka de tidsfönster där sådana attacker kan ha inträffat. Algoritmen anger också sådana fönster i olika tidsupplösningar för att underlätta snabbare mänsklig inspektion. Experimentella resultat visar att den föreslagna metoden är effektiv när det gäller att upptäcka singeltons översynsattacker. Vi upptäcker att singleton översyn är en viktig källa till spam recensioner och i stor utsträckning påverkar betygen i online-butiker. | REF upptäckte skräppostrecensioner i singletonrecensioner, där varje spammare bara skriver en eller färre recensioner i systemet. | 3,336,845 | Review spam detection via temporal pattern discovery | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,742 |
Abstract-Wireless energiöverföring (WET) har fått stor uppmärksamhet nyligen för att leverera energi till elektriska enheter utan behov av ledningar eller elkablar. I synnerhet är radiofrekvenssignalen (RF) som möjliggör långfälts WET tilltalande för energianslutna trådlösa nät på ett sändningssätt. För att övervinna den betydande banförlusten över trådlösa kanaler har flera antenner eller flera inflödestekniker (MIMO) föreslagits för att förbättra både överföringseffektiviteten och intervallet för RF-baserad WET. För att skörda den stora energi strålformningsvinsten i MIMO WET är det dock en viktig uppgift att förvärva kanalstatsinformation (CSI) vid energitransmittern (ET). Denna uppgift är särskilt utmanande för WET-system, eftersom befintliga kanalutbildnings- och återkopplingsmetoder som används för kommunikationsmottagare kanske inte kan implementeras vid energimottagaren (ER) på grund av hårdvarubegränsningen. För att ta itu med detta problem, anser vi i detta dokument en multianvändare MIMO WET-system, och föreslå en ny kanal lärande metod som kräver bara en feedback bit från varje ER till ET per återkopplingsintervall. Specifikt indikerar varje feedbackbit ökningen eller minskningen av den skördade energin vid varje ER i nuet jämfört med de tidigare intervallen, som kan mätas utan att ändra den befintliga strukturen i ER. Baserat på sådan feedback justerar ET sändningsstråleformningen i efterföljande träningsintervall och får samtidigt förbättrade uppskattningar av MIMO-kanalerna till olika ER genom att tillämpa en optimeringsteknik som kallas analytisk centerskärningsmetod (ACCPM). För den föreslagna ACCPM-baserade kanalinlärningsalgoritm, analyserar vi dess värsta fall konvergens, från vilken det avslöjas att algoritmen kan uppskatta multianvändare MIMO-kanaler samtidigt utan att minska den analytiska konvergenshastigheten. Dessutom visar vi genom omfattande simuleringar att den föreslagna algoritmen överträffar befintliga feedbackbaserade system för kanalinlärning både i fråga om konvergenshastighet och energieffektivitet, särskilt när antalet ER blir stort. Index Terms-Wireless energiöverföring (WET), multiple-input multiple-output (MIMO), energi strålformning, kanalinlärning, en-bitars återkoppling, analyscenter skärplan metod (ACCPM). | I REF undersöker författarna energi skörd (EH) med en en-bitars feedback, där varje mottagare bara rapporterar om den skördade energin i det aktuella tidsintervallet är större än det föregående intervallet, och sändaren uppskattar kanalen med hjälp av analytiska center skärplan metod. | 5,712,215 | Energy Beamforming with One-Bit Feedback | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,743 |
Vi identifierar en kompromiss mellan robusthet och noggrannhet som tjänar som en vägledande princip i utformningen av försvar mot kontradiktoriska exempel. Även om problemet har studerats i stor utsträckning empiriskt är mycket fortfarande okänt när det gäller den teori som ligger till grund för denna kompromiss. I detta arbete kvantifierar vi avvägningen i termer av skillnaden mellan risken för kontradiktoriska exempel och risken för icke kontradiktoriska exempel. Utmaningen är att tillhandahålla snäva gränser för denna kvantitet i form av en surrogatförlust. Vi ger en optimal övre gräns för denna mängd i termer av klassificeringskalibrerad förlust, som matchar den nedre gränsen i värsta fall. Inspirerad av vår teoretiska analys utformar vi också en ny försvarsmetod, HANDELS, för att handla med motstridig robusthet av mot precision. Vår föreslagna algoritm presterar väl experimentellt i verkliga datauppsättningar. Metoden är grunden för vårt inträde i NeurIPS 2018 Adversarial Vision Challenge där vi vann 1:a plats av 1 995 bidrag i den robusta modellspår, överträffar tvåan strategi med 11,41% i termer av medel 2 perturbation avstånd. | Ett nära relaterat arbete av Zhang et al. REF identifierar en avvägning mellan robusthet och noggrannhet, men deras syfte är främst att använda kompromissen för att vägleda principen i utformningen av försvar mot kontradiktoriska exempel för en fast arkitektur medan kompromissen vi identifierar främst är för att karakterisera olika arkitekturer. | 59,222,747 | Theoretically Principled Trade-off between Robustness and Accuracy | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,744 |
Detta dokument illustrerar relevansen av distributiva lagar för lösningen av rekursiva ekvationer, och visar att ett tillvägagångssätt för att erhålla myntduktiva lösningar av ekvationer via oändliga termer i själva verket är ett specialfall av en mer allmän strategi med hjälp av en utökad form av myntupptagning via distributiva lagar. | Distributiva lagar tillämpas i REF för att hitta lösningar på bevakade rekursiva ekvationer. | 46,379,722 | Distributive laws for the coinductive solution of recursive equations | {'venue': 'Information and Computation', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,745 |
I denna papec tar vi upp problemet med struktur och rörelseåterhämtning från två vyer av en scen som innehåller flygplan, d.v.s. uppsättningar av coplanar punkter. De flesta av de befintliga verken utnyttjar endast denna begränsning i en suboptimal mannel: Vi föreslår att parameterisera strukturen av sådana scener med plan och punkter på plan och härleda MLE (Maximum Likelihood Estimator) med hjälp av en minimal parameterisering baserad på 2 0 enheter. Resultatet är uppskattningen av kamerans rörelse och 3 0 struktur i projektivt utrymme, som minimerar reprojicering fel; samtidigt som den bitvis planaritet. Vi föreslår en kvasilinjär estimator som ger tillförlitliga initialiseringsvärden för planekvationer. Experimentella resultat visar att återuppbyggnaden är av klart överlägsen kvalitet jämfört med traditionella metoder baserade endast på punkter, även i f scenen är inte perfekt bitvis planar. | Metoden i REF återvinner struktur-från-rörelse från två vyer av en bitvis planar scen. | 122,690,289 | Projective structure and motion from two views of a piecewise planar scene | {'venue': 'Proceedings Eighth IEEE International Conference on Computer Vision. ICCV 2001', 'journal': 'Proceedings Eighth IEEE International Conference on Computer Vision. ICCV 2001', 'mag_field_of_study': ['Computer Science']} | 1,746 |
Den senaste tidens framgång tyder på att djupa neurala kontrollnätverk sannolikt kommer att vara en viktig komponent i självkörande fordon. Dessa nätverk är utbildade på stora dataset för att imitera mänskliga handlingar, men de saknar semantisk förståelse av bildinnehåll. Detta gör dem sköra och potentiellt osäkra i situationer som inte matchar träningsdata. Här föreslår vi att vi tar itu med denna fråga genom att utöka utbildningsdata med rådgivning i naturligt språk från en människa. Råd inbegriper vägledning om vad du ska göra och var du ska vara. Vi presenterar ett första steg mot rådgivning, där vi utbildar en end-to-end vehicle controller som accepterar råd. Styrenheten anpassar sitt sätt att röra sig till scenen (visuell uppmärksamhet) och kontrollen (styrning och hastighet). Uppmärksamhetsmekanismer binder styrenhetens beteende till framträdande objekt i rådgivningen. Vi utvärderar vår modell på en ny lämplig kördatauppsättning med manuellt kommenterade human-to-vehikel rådgivning som heter Honda Research Institute-Advice Dataset (HAD). Vi visar att ta råd förbättrar prestandan för end-to-end nätverk, medan nätverket signalerar på en mängd olika visuella funktioner som tillhandahålls av rådgivning. Datasetet finns tillgängligt på https://usa.honda-ri.com/HAD. | Kim och Al. REF föreslår en end-to-end körmodell som tar råd i naturligt språk för att förutsäga styrkommandon för att navigera i stadsmiljön. | 204,241,631 | Grounding Human-To-Vehicle Advice for Self-Driving Vehicles | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 1,747 |
Abstrakt. Att bygga Web API:er på toppen av SPARQL endpoints håller på att bli en vanlig praxis för att möjliggöra universell tillgång till integration gynnsamma datautrymme för länkade data. Den länkade datagemenskapen kan dock inte förvänta sig att användare ska lära sig SPARQL att fråga detta datautrymme, och Web API:er är det vanligaste sättet att möjliggöra programmatisk åtkomst till data på webben. Genomförandet av Web API:er runt länkade data är dock ofta en tråkig och repetitiv process. Det senaste arbetet påskyndar denna länkade Data API-konstruktion genom att slå in den runt SPARQL-frågor, som utför API-funktionen under huven. Inspirerad av detta presenterar vi i detta papper grlc, en lättviktig server som översätter SPARQL-frågor kurerade i GitHub arkiv till länkade data API:er i farten. | Bland dessa kan vi citera grlc, en programvara för automatisk generering av webb API från SPARQL fråga som finns i GitHub arkiv REF. | 7,258,885 | grlc Makes GitHub Taste Like Linked Data APIs | {'venue': 'SALAD@ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,748 |
Syfte: Klassificering är en viktig och allmänt använd maskininlärningsteknik inom bioinformatik. Forskare och andra slutanvändare av programvara för maskininlärning föredrar ofta att arbeta med begripliga modeller där det är möjligt att ta fram kunskap och förklara resonemang bakom klassificeringsmodellen. Metoder: Detta papper presenterar en förlängning till en befintlig maskininlärning miljö och en studie om visuell inställning av beslut träd klassificerare. Motiveringen till denna forskning kommer från behovet av att bygga effektiva och lättförståeliga beslutsträdsmodeller med så kallad enknapps datautvinningsmetod där ingen parameterinställning behövs. För att undvika partiskhet i klassificeringen används ingen klassificeringsmått vid inställning av modellen som uteslutande begränsas av dimensionerna på det producerade beslutsträdet. Den föreslagna visuella tuning av beslutsträd utvärderades på 40 dataset som innehöll klassiska maskininlärningsproblem och 31 dataset från bioinformatikområdet. Även om vi inte förväntade oss några betydande skillnader i klassificeringsprestanda, visar resultaten en betydande ökning av noggrannheten i mindre komplexa visuellt avstämda beslutsträd. I motsats till klassiska maskininlärning benchmarking dataset, observerar vi högre noggrannhetsvinster i bioinformatik dataset. Dessutom genomfördes en användarstudie för att bekräfta antagandet att trädinställningstiderna är betydligt lägre för den föreslagna metoden jämfört med manuell inställning av beslutsträdet. De empiriska resultaten visar att genom att bygga enkla modeller som begränsas av fördefinierade visuella gränser uppnår man inte bara god begriplighet, utan också mycket god klassificeringsprestanda som inte skiljer sig från oftast mer komplexa modeller som byggts med hjälp av standardinställningar för den klassiska beslutsträdsalgoritmen. Dessutom visar vår studie lämpligheten av visuellt inställda beslutsträd för dataset med binära klassattribut och ett stort antal eventuellt överflödiga attribut som är mycket vanliga inom bioinformatik. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF presenterade en studie med en visual Tuning J48 (VTJ48), dvs. J48 med fördefinierade visuella gränser. | 18,888,480 | Comprehensive Decision Tree Models in Bioinformatics | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Biology', 'Medicine']} | 1,749 |
Med ökningen av användargenererat innehåll i sociala medier i kombination med nästan obefintlig måttlighet i många sådana system har aggressivt innehåll observerats öka i sådana forum. I detta dokument arbetar vi med problemet med upptäckt av aggressioner i sociala medier. Aggression kan ibland uttryckas direkt eller öppet eller det kan döljas eller döljas i texten. Å andra sidan är det mesta av innehållet i sociala medier icke-aggressivt till sin natur. Vi föreslår ett ensemblebaserat system för att klassificera en ingångspost i en av tre klasser, nämligen overtly Aggressive, covert Aggressive och Non-aggressive. Vårt tillvägagångssätt använder sig av tre metoder för djupt lärande, nämligen Convolutional Neural Networks (CNN) med fem lager (input, convolution, pooling, gömd och output), Long Short Term Memory Networks (LSTM) och Bi-directive Long Short Term Memory Networks (Bi-LSTM). En majoritetsröstbaserad ensemblemetod används för att kombinera dessa klassificeringar (CNN, LSTM och Bi-LSTM). Vi tränade vår metod på Facebook kommentarer dataset och testade på Facebook kommentarer (i-domän) och andra sociala medier inlägg (cross-domain). Vårt system uppnår F1-poäng (viktat) på 0,604 för Facebook-inlägg och 0,508 för sociala medier. | Aggression: En metod för att upptäcka aggression i sociala medier föreslås i REF. | 53,583,922 | Aggression Detection in Social Media using Deep Neural Networks. | {'venue': 'TRAC@COLING 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,750 |
Detta brev beskriver utformningen och genomförandet av ett distribuerat möte schemaläggningssystem där varje användare har en intelligent agent i sin datorskrivbord som ansvarar för att arrangera möten. Med vetskap om användarens önskemål och åtaganden förhandlar agenterna med varandra för att hitta de mest acceptabla mötestiderna. Inledning: Man tror allmänt att nästa generations datorprogram kommer att vara betydligt mer proaktiva när det gäller att hjälpa användarna att uppnå sina mål än de som för närvarande finns [1, 2]. I stället för att användaren måste specificera varje steg i en given uppgift, kommer skrivbordet i framtiden att bestå av en rad intelligenta agenter till vilka ett antal uppgifter på hög nivå kan delegeras. Dessa agenter kommer att vara ansvariga för att självständigt bestämma hur uppgiften ska uppnås och faktiskt utföra den nödvändiga uppsättningen åtgärder (inklusive hantering av eventuella interaktioner med andra intelligenta agenter). Exempel på de typer av funktioner som kommer att stödjas är: filtrering av e-post, övervakning av nyhetsgrupper på Internet och rapportering av intressanta diskussioner och upptäckt av nya databaser på informationsmotorvägen. I detta brev redogörs för utformningen och genomförandet av en särskild agentbaserad ansökan som anordnar möten. Detta program vänder de för närvarande tillgängliga elektroniska kalenderhanteringssystem (såsom Arrangör eller UNIX:s Kalender Manager) från passiva informationsarkiv där en användare helt enkelt registrerar sitt personliga schema till aktiva och bemyndigade program som kan förhandla för användarens räkning för att arrangera möten enligt en uppsättning uttryckta preferenser. Detta arbete utgör ett framsteg jämfört med tidigare forskningsprototyper (t.ex. [3, 4, 5]) eftersom det handlar om senareläggning och omläggning av möten samt deras effektiva schemaläggning i en dynamisk och föränderlig miljö. Det är ett förskott över för närvarande tillgängliga kalenderhanteringsprodukter (såsom Meeting Maker och MS-Schedule+) på så sätt att det är agenterna, och inte människorna, som hanterar och genomför förhandlingsprocessen. | En av de tidigaste agent-baserade möte schemaläggning program rapporteras av Jennings och Jackson REF, enligt vilken varje deltagare är "representerad" av en möte schemaläggning agent (MSA), hantera sin användares kalender. | 11,553,569 | Agent-based Meeting Scheduling: A Design and Implementation | {'venue': None, 'journal': 'Electronics Letters', 'mag_field_of_study': ['Computer Science']} | 1,751 |
Ineffektiva kontrollstrategier för värme- och kylsystem har gett upphov till en stor mängd energislöseri och till utbredda klagomål om den termiska miljön i byggnader. I detta dokument föreslås en intelligent kontrollmetod baserad på klassificering av stödvektormaskin (SVM). Hudtemperaturer är de enda ingångarna till modellen och har visat attraktiv förutsägelse kraft i att känna igen steady state termiska krav. Data samlades in från två studier för att överväga potentiell användning för antingen enskilda personer eller en grupp av boende. Med hjälp av en enda hudtemperatur korrekt förutsäger 80% av termiska krav. Genom att använda kombinerade hudtemperaturer från olika kroppssegment kan modellen förbättras till över 90 % noggrannhet. Resultaten visar att tre hudplatser innehöll tillräckligt med information för klassificering och mer skulle orsaka dimensionalitetens förbannelse. Modeller med olika hudtemperaturer jämfördes. Optimala parametrar för varje modell tillhandahölls med hjälp av nätsökteknik. Med tanke på överbestämmande möjlighet och fall utan inlärningsprocesser, SVM klassificerare med en linjär kärna är att föredra framför Gaussian kärna en. | Dai REF kombinerade maskininlärning med hudtemperatur, och en intelligent kontrollmetod baserad på SVM föreslogs. | 55,915,889 | Machine learning approaches to predict thermal demands using skin temperatures: Steady-state conditions | {'venue': None, 'journal': 'Building and Environment', 'mag_field_of_study': ['Computer Science']} | 1,752 |
Abstract-Den sammanlagda kapaciteten för den parallella Gaussiska interferenskanalen visas att uppnås genom oberoende överföring över underkanaler och behandla störningar som buller om kanalkoefficienter och effektbegränsningar uppfyller ett visst villkor. Villkoret kräver att störningen är svag, en situation som ofta uppstår, t.ex. vid överföring av digitala abonnentlinjer. Den optimala krafttilldelningen kännetecknas av att den samlade kapaciteten används som en funktion av kraftbegränsningarna. | Referensreferensreferensen visade att oberoende kodning över underkanaler och behandling av störningen som buller är optimal om interferensen i varje underkanal är tillräckligt svag. | 11,431,483 | Noisy-Interference Sum-Rate Capacity of Parallel Gaussian Interference Channels | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,753 |
Med de senaste framstegen av neurala modeller och naturligt språk bearbetning, automatisk generation av klassisk kinesisk poesi har dragit betydande uppmärksamhet på grund av sitt konstnärliga och kulturella värde. Tidigare verk fokuserar främst på att generera poesi med nyckelord eller annan textinformation, medan visuella inspirationer för poesi sällan har utforskats. Att skapa poesi från bilder är mycket mer utmanande än att generera poesi från text, eftersom bilder innehåller mycket rik visuell information som inte kan beskrivas helt med flera nyckelord, och en bra dikt bör förmedla bilden korrekt. I den här artikeln föreslår vi en minnesbaserad neural modell som utnyttjar bilder för att generera dikter. Speciellt föreslås en Encoder-Decoder modell med ett ämnesminne nätverk för att generera klassisk kinesisk poesi från bilder. Såvitt vi vet är detta det första arbetet med att försöka generera klassisk kinesisk poesi från bilder med neurala nätverk. En omfattande experimentell undersökning med både mänsklig utvärdering och kvantitativ analys visar att den föreslagna modellen kan generera dikter som förmedlar bilder korrekt. | REF utforskade generera kinesiska dikter från bilder. | 3,767,806 | How Images Inspire Poems: Generating Classical Chinese Poetry from Images with Memory Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 1,754 |
Syfte -Twitter är en populär mikrobloggning tjänst som under de senaste åren har visat sin potential för att sprida nyheter och information om utvecklingen av händelser. I detta arbete fokuserar vi på analysen av informationens trovärdighet på Twitter. Syftet med vår forskning är att fastställa om en automatisk upptäcktsprocess av relevanta och trovärdiga nyhetshändelser kan uppnås. Design/metodologi/approach -Vi följer en övervakad inlärningsmetod för uppgiften att automatiskt klassificera trovärdiga nyhetshändelser. En första klassare bestämmer om en informationskaskad motsvarar en nyhetsvärd händelse. Sedan bestämmer en andra klassare om denna kaskad kan anses trovärdig eller inte. Vi genomför denna insats utbildning över en betydande mängd märkta data, som erhållits med hjälp av crowdsourcing verktyg. Vi validerar dessa klassificeringar under två inställningar: den första, ett urval av automatiskt upptäckta Twitter "trender" på engelska, och den andra, vi testar hur väl denna modell överförs till Twitter ämnen på spanska, automatiskt detekteras under en naturkatastrof. Fynden -Det finns mätbara skillnader i hur mikrobloggmeddelanden sprids. Vi visar att dessa skillnader är relaterade till nyhetsvärdet och trovärdigheten hos den information som förmedlas, och vi beskriver egenskaper som är effektiva för att automatiskt klassificera information som trovärdig eller inte trovärdig. Originalitet/värde -Vi testar först vårt tillvägagångssätt under normala förhållanden, och sedan utvidgar vi våra resultat till en katastrofhanteringssituation, där många nyheter och rykten uppstår. Dessutom, genom att analysera överföringen av våra klassificeringar över språk, kan vi titta djupare på vilka ämnes-funktioner som är mer relevanta för trovärdighetsbedömning. Såvitt vi vet är detta den första artikeln som studerar kraften i förutsägelse av sociala medier för informations trovärdighet, med tanke på modellöverföring i tidskänsliga och språkkänsliga sammanhang. | Al REF, studerar spridningen av falska rykten på Twitter under en krishändelse. | 2,385,581 | Predicting Information Credibility in Time-Sensitive Social Media | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,755 |
Det finns stort intresse för Hierarkical Dirichlet Process Hidden Markov Model (HDP-HMM) som en naturlig Bayesian nonparametric förlängning av den allestädes närvarande dolda Markov Modell för lärande från sekventiella och tidsserie data. I många sammanhang är dock HDP-HMM:s strikta markoviska begränsningar oönskade, särskilt om vi vill lära oss eller koda icke-geometriska tillståndslängder. Vi kan utvidga HDP-HMM till att fånga en sådan struktur genom att utnyttja explicit-duration semi-Markov modellering, som har utvecklats främst i den parametriska icke-bayesianska inställningen, för att möjliggöra konstruktion av mycket tolkningsbara modeller som medger naturlig tidigare information om tillståndslängder. I detta dokument introducerar vi den explicit-duration Hierarkical Dirichlet Process Dolda semi-Markov Model (HDP-HSMM) och utveckla provtagningsalgoritmer för effektiv bakre inferens. De metoder vi inför ger också nya metoder för provtagningsslutsatser i den finita Bayesian HSMM. Våra modulära Gibbs provtagningsmetoder kan inbäddas i provtagare för större hierarkiska Bayesian modeller, lägga semi-Markov kedjemodellering som ett annat verktyg i Bayesian inference verktygslåda. Vi visar nyttan av HDP-HSMM och våra inference metoder på både syntetiska och verkliga experiment. | I en annan studie REF, Hierarkical Dirichlet Process Hidden Semi-Markov Model (HDP-HSMM) används för att införliva duration distributioner (Semi Markov) och det gör det möjligt att härleda antalet stater från data (Hierarkical Dirichlet Process). | 463,111 | Bayesian Nonparametric Hidden Semi-Markov Models | {'venue': None, 'journal': 'arXiv: Methodology', 'mag_field_of_study': ['Mathematics', 'Engineering', 'Computer Science']} | 1,756 |
Bakgrund: Under de senaste åren, biologiska händelser utvinning har uppstått som en viktig naturlig språkbearbetning uppgift, syftar till att ta itu med problemet med överbelastning av information i tillgång till molekylärbiologi litteratur. BioNLP:s gemensamma uppgiftstävlingar har bidragit avsevärt till detta nya intresse. Den första tävlingen (BioNLP'09) fokuserade på att utvinna biologiska händelser ur Medline abstracts från en smal domän, medan temat för den senaste tävlingen (BioNLP-ST'11) var generalisering och ett bredare spektrum av texttyper, händelsetyper och ämnesområden övervägdes. Vi ser händelseextrahering som en byggsten i större diskurstolkning och föreslår en tvåfas, språkligt grundad, regelbaserad metodik. I den första fasen består en allmän, underspecificerad semantisk tolkning av syntaktiska beroendeförhållanden nedifrån och upp. Begreppet inbäddning ligger till grund för denna fas och det informeras om detta genom regler för identifikation av utlösare och argument. Samreferensresolutionen genomförs också i detta steg, vilket gör det möjligt att ta fram inter-sentiella förbindelser. Den andra fasen handlar om att begränsa den semantiska tolkning som blir följden genom gemensamma uppgiftsspecifikationer. Vi utvärderade vår allmänna metodik för grundläggande biologiska händelser utvinning och spekulation / negation uppgifter i tre huvudspår av BioNLP-ST'11 (GENIA, EPI, och ID). Vi uppnådde konkurrenskraftiga resultat i GENIA och ID-spår, medan våra resultat i EPI spår lämnar utrymme för förbättringar. Ett framträdande drag i vårt system är att dess prestanda över abstracts och artiklar kroppar är stabil. Coreference upplösning resulterar i mindre förbättring av systemets prestanda. På grund av vårt intresse för diskurs-nivå-element, såsom spekulation/negation och samreferens, ger vi en mer detaljerad analys av våra systemprestanda i dessa deluppgifter. Resultaten visar på livskraften hos en robust, språkligt inriktad metod, som tydligt skiljer den allmänna semantiska tolkningen från gemensamma uppgiftsspecifika aspekter, för utvinning av biologiska händelser. Vår felanalys pekar på vissa brister som vi planerar att åtgärda i det framtida arbetet inom vår stegvisa systemutvecklingsmetod. Tillämpning av flera regler för intrasentiell omvandling på meningsfragmenten i den första kolumnen. Syntaktiska beroenden i den andra kolumnen är indata till dessa regler och inbäddande relationer i den tredje kolumnen är utdata. Kilicoglu och Bergler BMC Bioinformatics 2012, 13(Suppl 11):S7 | I BioNLP-ST 2011 utvidgade de sitt arbete till en tvåfasmetod där den första fasen generaliserar syntaktiska beroendeförhållanden till en semantisk tolkning medan den andra fasen begränsar tolkningen med domänspecifika kunskaper och uppnår konkurrenskraftiga resultat REF. | 7,926,291 | Biological event composition | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 1,757 |
Vi presenterar PIDGIN, ett programanalys- och förståelseverktyg som möjliggör specifikation och tillämpning av exakta tillämpningsspecifika informationssäkerhetsgarantier. PIDGIN gör det också möjligt för utvecklare att interaktivt utforska informationsflödena i sina tillämpningar för att utveckla policyer och undersöka motexempel. PIDGIN kombinerar programberoende grafer (PDGs), som exakt fångar informationsflöden i en hel ansökan, med en anpassad PDG frågespråk. Frågor uttrycker egenskaper om sökvägarna i PDG; eftersom sökvägar i PDG motsvarar informationsflöden i ansökan, kan frågor användas för att specificera globala säkerhetsstrategier. PIDGIN är skalbart. Skapa en PDG för en 330k linje Java ansökan tar 90 sekunder, och kontrollera en policy om att PDG tar under 14 sekunder. Frågespråket är uttrycksfullt och stöder en stor klass av exakta, tillämpningsspecifika säkerhetsgarantier. Policyer är åtskilda från koden och stör inte testning eller utveckling, och kan användas för säkerhetsregressionstestning. Vi beskriver utformningen och genomförandet av PIDGIN och rapporterar om användningen av den: (1) att utforska informationssäkerhetsgarantier i äldre program; (2) att utveckla och ändra säkerhetspolitik samtidigt med applikationsutveckling; och (3) att utveckla policyer baserade på kända sårbarheter. | Pidgin REF är ett anpassat frågespråk för programberoende grafer som också kan fånga säkerhetsegenskaper på Java-program. | 18,245,166 | Exploring and enforcing security guarantees via program dependence graphs | {'venue': 'PLDI 2015', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,758 |
Abstract-Recent framsteg inom teknik har gjort låga kostnader, låg effekt trådlösa sensorer en verklighet. Ett nätverk av sådana noder kan sinsemellan samordna för distribuerad avkänning och bearbetning av vissa fenomen. I detta dokument föreslår vi en arkitektur för att tillhandahålla en statslös lösning i sensornätverk för effektiv adressering och routing. Vi namnger vår arkitektur TreeCast. Vi föreslår en unik metod för tilldelning av adresser, som bygger upp flera skilda träd som är geografiskt sammanflätade och rotade vid datasänkan. Med hjälp av dessa träd, routing meddelanden till och från diskbänk noden utan att upprätthålla någon routing tillstånd i sensorn noder är möjligt. Därefter använder vi denna adressfördelningsmetod för omfattande adressering, genom vilken sensornoder av en viss typ eller i en viss region kan riktas. Utvärdering av vårt protokoll med hjälp av ns-2 simuleringar visar hur väl våra adresser och routing system fungerar. | TreeCast Ref är ett system för statslös hantering som föreslås för effektiv hantering. | 3,074,625 | TreeCast: a stateless addressing and routing architecture for sensor networks | {'venue': '18th International Parallel and Distributed Processing Symposium, 2004. Proceedings.', 'journal': '18th International Parallel and Distributed Processing Symposium, 2004. Proceedings.', 'mag_field_of_study': ['Computer Science']} | 1,760 |
Vi beskriver en algoritm som bygger på webbfrekvensräkningar för att identifiera och korrigera skrivfel som gjorts av icke-inhemska författare av engelska. Utvärdering av systemet på en realworld ESL corpus visade mycket lovande prestanda på det mycket svåra problemet med att kritisera engelska bestämningsanvändning: 62% precision och 41% recall, med en falsk flaggfrekvens på endast 2% (jämfört med en slumpmässig utgångsvärde på 5% precision, 7% recall, och mer än 80% falsk flagga). Resultaten av samlokaliseringsfel var mindre bra, vilket tyder på att ett webbaserat tillvägagångssätt bör kombineras med lokala språkliga resurser för att uppnå både effektivitet och ändamålsenlighet. | REF använder webbfrekvensräkningar för att identifiera och korrigera bestämningsfel och verb-noun collocation. | 9,389,112 | A Web-based English Proofing System for English as a Second Language Users | {'venue': 'Proceedings of the Third International Joint Conference on Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,761 |
När du skriver papper, hur många gånger vill du göra några citat på en plats men du är inte säker på vilka papper att citera? Vill du ha ett rekommendationssystem som kan rekommendera ett litet antal bra kandidater för varje plats som du vill göra några citeringar? I detta dokument presenterar vi vårt initiativ att bygga upp ett sammanhangsmedvetet system för rekommendationer om citeringar. Högkvalitativ citering rekommendation är utmanande: inte bara bör de citeringar som rekommenderas vara relevanta för papperet under sammansättning, men också bör matcha de lokala sammanhangen av de platser citeringar görs. Dessutom är det långt ifrån trivialt att modellera hur ämnet för hela papperet och sammanhangen för citeringsplatserna bör påverka urvalet och rangordningen av citeringar. För att ta itu med problemet utvecklar vi en kontextmedveten strategi. Grundidén är att utforma en ny icke-parametrisk probabilistisk modell som kan mäta den kontextbaserade relevansen mellan ett citeringssammanhang och ett dokument. Vår strategi kan rekommendera citeringar för ett sammanhang på ett effektivt sätt. Dessutom kan den rekommendera en uppsättning citeringar för ett papper med hög kvalitet. Vi implementerar ett prototypsystem i CiteSeerX. En omfattande empirisk utvärdering i det digitala biblioteket CiteSeerX mot många baslinjer visar effektiviteten och skalbarheten i vårt tillvägagångssätt. | REF använde en kontextmedveten metod och mätte relevansen mellan sammanhangs- och kandidatposter för vetenskapliga rekommendationer. | 207,178,743 | Context-aware citation recommendation | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,762 |
Vi presenterar en svagt övervakad strategi för att lära hashtaggar, hashtag mönster, och fraser som förknippas med fem känslor: AFFEC-TION, ANGER/RAGE, FEAR/ANXIETY, JOY, och SADNESS/DISAPPOINTMENT. Vi börjar med fröhashtaggar för att märka en första uppsättning tweets, vi tränar känslor klassificerare och använder dem för att lära sig nya känslor hashtaggar och hashtag mönster. Denna process upprepas sedan i en bootstrappa ram. Känslofraser utvinns också från inlärda hashtaggar och används för att skapa frasbaserade känsloklassare. Vi visar att den inlärda uppsättningen känsloindikatorer ger en betydande förbättring av F-poängen, från +% 5 till +% 18 jämfört med baslinjeklassificeringen. | I en senare studie utvidgade REF sitt arbete till att omfatta hashtag mönster och fraser förknippade med dessa fem känslor. | 18,425,749 | Learning Emotion Indicators from Tweets: Hashtags, Hashtag Patterns, and Phrases | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,763 |
Abstract-Vi föreslår ett nytt trafiktecken detektionssystem som samtidigt uppskattar platsen och exakt gräns för trafikskyltar med hjälp av konvolutionella neurala nätverk (CNN). Att uppskatta den exakta gränsen för trafikskyltar är viktigt i navigationssystem för intelligenta fordon där trafikskyltar kan användas som 3D-landmärken för vägtrafik. Tidigare system för att upptäcka trafikskyltar, inklusive nya metoder baserade på CNN, tillhandahåller endast avgränsande rutor med trafikskyltar som utgång, och kräver därför ytterligare processer såsom konturuppskattning eller bildsegmentering för att erhålla den exakta skyltgränsen. I detta arbete, gränsuppskattningen av trafikskyltar formuleras som en 2D pose och form klass förutsägelse problem, och detta är effektivt löst genom en enda CNN. Med den förutsagda 2D-posen och formklassen för en trafikskylt i en ingångsbild, uppskattar vi den faktiska gränsen för målskylten genom att projicera gränsen för en motsvarande mallskyltbild i ingångsbildens plan. Genom att formulera gränsuppskattningsproblemet som en CNN-baserad pose och form förutsäga uppgift, vår metod är end-to-end trailingable, och mer robust mot ocklusion och små mål än andra gränsuppskattningsmetoder som bygger på konturuppskattning eller bildsegmentering. Den föreslagna metoden med arkitektonisk optimering ger en exakt gränsuppskattning av trafikskyltar som också är effektiv i beräkning, vilket visar en detekteringsramhastighet som är högre än 7 bilder per sekund på mobila plattformar med låg effekt. | Lee et al föreslog en metod med hjälp av en digital karta för extraktion av den exakta gränsen REF. | 3,599,340 | Simultaneous Traffic Sign Detection and Boundary Estimation using Convolutional Neural Network | {'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 1,764 |
Vi beskriver kriterier för genomförande av kvantberäkning i qudits. En qudit är ett d-dimensionellt system vars Hilbert rymd spänns över av stater.. Ett viktigt tidigare arbete. Muthukrishnan och C.R. Stroud, Jr, Phys. Upp. En 62, 052309 på 2000 en beskriver hur man exakt simulerar en godtycklig enhet på flera qudits med hjälp av en 2d - 1 parameter familj av enkel qudit och två qudit grindar. Den tekniken är baserad på spektral nedbrytning av enheter. Här generaliserar vi detta argument för att visa att exakt universalitet följer ges en diskret uppsättning av enstaka qudit Hamiltonians och en två-qudit Hamiltonian. Tekniken är relaterad till QR-matris nedbrytningen av numerisk linjär algebra. Vi anser att ett generiskt fysiskt system i vilket de enskilda qudit Hamiltonianerna är en liten samling av H jk x = skak med + och H jk y =.............................................................................................. En koppling graf resultat tar noder 0,..., d − 1 och kanter j en k iff H jk x,y är tillåtna Hamiltonians. En qudit exakt universalitet följer iff denna graf är ansluten, och fullständig universalitet resultat om den två-kvadrat Hamiltonian H =.d −1,d −1 skad −1,d −1[1] är också tillåtet. Vi diskuterar implementering i de åttadimensionella mark elektroniska tillstånd 87 Rb och konstruera en optimal grindsekvens med Raman laserpulser. | En diskret uppsättning av enskilda qudit grindar och en enda två qudit grind används i REF för att syntetisera den stora enhetliga matrisen med QR nedbrytning. | 14,581,325 | Criteria for exact qudit universality | {'venue': 'Physical Review A 71, 052318 (2005).', 'journal': None, 'mag_field_of_study': ['Physics']} | 1,765 |
ABSTRACT Detta dokument presenterar en artificiell neural nätverk (ANN)-baserad detektionsalgoritm för ett obemannade luftfartyg (UAV). Lutningen, kurtosen och skevheten hos signalen från UAV används i denna algoritm. Utbildningen av de tre motsvarande funktionsmatriserna görs med UAV, och icke-UAV-signaler kan klassificeras effektivt för UAV-sensornätverket baserat på ANN. Utomhusdata över en bro i Jimo District, Qingdao och inomhusdata från ett forskningslaboratorium används för systemutbildning och utvärdering. De resultat som erhållits visar att den föreslagna detektionsalgoritmen baserad på en ANN överträffar metoder baserade på lutning, kurtos och skevhet av den mottagna signalen i termer av felfrekvensen. Erkännandegraden med den föreslagna algoritmen är större än 82 % inom ett avstånd av 3 km, vilket är bättre än andra UAV-detektionsmetoder såsom aktiv radar, akustisk och visuell igenkänning. INDEX TERMS Obemannade luftfarkoster (UAV), trådlösa sensornätverk, artificiella neurala nätverk (ANN), signaldetektering, lutning, kurtos, skevhet. | I ett annat nytt arbete REF, UAV: s RF-signal egenskaper extraheras och en artificiell neurala nätverk (ANN)-baserad detektionsalgoritm föreslås. | 44,144,186 | A UAV Detection Algorithm Based on an Artificial Neural Network | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 1,766 |
Layout är viktigt för grafisk design och scengenerering. Vi föreslår en roman Generative Adversarial Network, kallad LayoutGAN, som syntetiserar layouter genom att modellera geometriska relationer av olika typer av 2D-element. Generatorn av LayoutGan tar som ingång en uppsättning slumpmässigt placerade 2D grafiska element och använder själv-attention moduler för att förfina sina etiketter och geometriska parametrar tillsammans för att producera en realistisk layout. Korrekt inställning är avgörande för bra layouter. Vi föreslår därför en ny differentiable wireframe rendering lager som kartlägger den genererade layouten till en wireframe bild, där en CNN-baserad discriminator används för att optimera layouter i bildutrymme. Vi validerar Layout-Gan effektivitet i olika experiment inklusive MNIST siffergenerering, dokument layout generation, clipart abstrakt scengenerering och tangram grafisk design. | I REF används Generativa Adversarial Networks för att generera nya layouter för UX-design och clip-art-generering. | 58,981,508 | LayoutGAN: Generating Graphic Layouts with Wireframe Discriminators | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 1,767 |
Sammanfattning av denna webbsida: Olika fysikaliska och kemiska faktorer, såsom ljus, temperatur, relativ luftfuktighet, föroreningar och så vidare, kan påverka konstverk på displayen. Varje faktor agerar inte individuellt, men dess effekt kan förstärkas eller påskyndas av närvaron av andra faktorer. En utvärdering av hela miljöns inverkan på konstföremål erkänns därför som ett väsentligt krav för bevarandeändamål. För att uppfylla de senaste riktlinjerna om förebyggande bevarande har flera vetenskapliga projekt som stöds av kommissionen under de senaste åren inriktats på att utveckla innovativa verktyg som kan komplettera standardmetoderna för miljöövervakning på museer. Dessa forskningsprojekt producerade en ny generation passiva sensorer som kan ta hänsyn till de övergripande miljöeffekterna genom att på något sätt efterlikna beteendet hos verkliga konstverk. Huvudsyftet med detta dokument är att ge en översikt över dessa sensorer, som utgör en ny gräns för miljökontrollen på museer. Dessutom kommer användningen av optiska fibrer, som både inneboende sensorer och anordningar för att förhöra sensorer, att illustreras, och exempel på användning av dem inom kulturarvsområdet kommer att rapporteras. | Arbetet inom REF ger en översikt över dessa sensorer, som utgör en ny gräns inom miljökontrollen på museer och som på olika sätt måste komplettera de konventionella metoderna för miljöövervakning. | 18,197,003 | Innovative Sensors for Environmental Monitoring in Museums | {'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 1,768 |
Djupt lärande på grafstrukturer har visat spännande resultat i olika tillämpningar. Men få har uppmärksammats på robustheten i sådana modeller, i motsats till många forskningsarbete för bild eller text motattack och försvar. I detta dokument fokuserar vi på de kontradiktoriska attacker som lurar modellen genom att ändra den kombinatoriska strukturen hos data. Vi föreslår först en förstärkande inlärningsbaserad attackmetod som lär sig den generaliserbara attackpolicyn, samtidigt som den endast kräver prediktionsetiketter från målklassaren. Dessutom presenteras varianter av genetiska algoritmer och gradientmetoder i det scenario där förutsägelsekonfidens eller gradienter finns tillgängliga. Vi använder både syntetiska och verkliga data för att visa att, en familj av Graph Neural Network modeller är sårbara för dessa attacker, i både graf-nivå och nod-nivå klassificering uppgifter. Vi visar också sådana attacker kan användas för att diagnostisera de lärda klassificeringarna. | REF introducerar en förstärkande inlärningsbaserad metod som ändrar grafstrukturen och avsevärt sänker testnoggrannheten. | 46,968,933 | Adversarial Attack on Graph Structured Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,769 |
Säsongsinfluensan har betydande effekter runt om i världen, både ekonomiskt och i dödlighet bland riskgrupper, men det råder stor osäkerhet om de väsentliga mekanismerna och deras parametrisering. I detta dokument identifierar vi ett antal karakteristiska egenskaper hos influensaincidenstidsserier i tempererade regioner, inklusive intervall av årliga anfallsfrekvenser och utbrottets varaktighet. Genom att begränsa produktionen av enkla modeller för att matcha dessa karakteristiska egenskaper, undersöker vi den roll som spelas av befolkningen heterogenitet, flera stammar, korsimmunitet och graden av belastningsutveckling i generering av incidenstidsserier. Resultaten visar att en åldersstrukturerad modell med icke-slumpmässiga blandnings- och cocirkulerande stammar båda krävs för att matcha observerade tidsseriedata. Vårt arbete ger uppskattningar av säsongens topp bas reproduktion, R 0, i intervallet 1.6-3. Uppskattningar av R 0 är starkt korrelerade med tidsskalan för avtagande immunitet mot aktuell cirkulerande säsongsinfluensastam, som vi uppskattar är mellan 3 och 8 år. Säsongsvariationen i överförbarheten är till stor del begränsad till 15–30 % av medelvärdet. Även om populations heterogenitet och korsimmunitet krävs mekanismer, är graden av heterogenitet och korsimmunitet inte strikt begränsad. Vi diskuterar våra resultat i samband med annat arbete som är anpassat till säsongsbetonade influensadata. | En fackmodell med stratifiering efter ålder och korsimmunitet för flera stammar passar antalet säsongsinfluensafall den bästa REF. | 5,556,362 | Essential epidemiological mechanisms underpinning the transmission dynamics of seasonal influenza | {'venue': 'Journal of The Royal Society Interface', 'journal': 'Journal of The Royal Society Interface', 'mag_field_of_study': ['Biology', 'Medicine']} | 1,770 |
Abstrakt. Nyckelisolerad kryptografi är en avgörande teknik för att skydda privata nycklar. För att stärka säkerheten för nyckelisolerade protokoll introducerade Hanaoka, Hanaoka och Imai nyligen idén om parallell nyckelisolerad kryptering (PKIE) där distinkta fysiskt säkra enheter (kallade hjälpare) används självständigt i viktiga uppdateringar. Deras motivation var att minska risken för exponering för hjälpare genom att minska frekvensen av deras anslutningar till osäkra miljöer. Hanaoka m.fl. visade att det var icke-trivialt att uppnå ett PKIE-system som passade deras modell och föreslog en konstruktion baserad på Boneh-Franklins identitetsbaserade krypteringssystem (IBE). Säkerheten i deras system analyserades endast i den idealiserade slumpmässiga orakelmodellen. I detta dokument tillhandahåller vi ett relativt effektivt system som är säkert i standardmodellen (dvs. utan slumpmässiga orakel). För att göra detta visar vi först att det finns ett samband mellan PKIE och begreppet aggregerade signaturer (AS) som föreslagits av Boneh et al. Vi beskriver sedan vår slumpmässiga oraklefria konstruktion med hjälp av tvålinjära kartor. Således är våra bidrag både på den konkreta sidan, nämligen det första förverkligandet av parallell nyckelisolerad kryptering utan slumpmässig orakel idealisering, och på den konceptuella sidan avslöjar förhållandet mellan två till synes orelaterade primitiva. | År 2007, Quisquater et al. I standardmodellen föreslogs ett parallellt nyckelisolerat system för kryptering av offentliga nycklar. | 238,129 | Parallel Key-Insulated Public Key Encryption Without Random Oracles | {'venue': 'Public Key Cryptography', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,771 |
Vi studerar topologikontrollproblem i ad hoc-nätverk, där nätverksnoder får välja sina strömnivåer för att säkerställa önskade konnektivitetsegenskaper. Till skillnad från de flesta andra arbete på detta ämne, antar vi att nätverksnoder ägs av olika enheter, vars enda mål är att maximera sitt eget verktyg att de kommer ut ur nätverket utan att överväga den totala prestandan i nätverket. Spelteori är det lämpliga verktyget för att studera sådana själviska noder: vi definierar flera topologi kontrollspel där noderna behöver välja effektnivåer för att ansluta till andra noder i nätverket för att nå sina kommunikationspartners samtidigt minimera sina kostnader. Vi studerar Nash equilibria och visar att -bland de spel vi definierar - dessa kan bara garanteras att existera om alla nätverksnoder krävs för att anslutas till alla andra noder (vi kallar detta Starka Anslutningsspel). Vi ger asymptotiskt snäva gränser för det värsta fallet kvalitet på en Nash jämvikt i Strong Connectivity Game och vi förbättrar dessa gränser för slumpmässigt fördelade noder. Vi studerar sedan den beräkningsmässiga komplexiteten av att hitta Nash equilibria och visar att en polynom-tid algoritm finner Nash equilibria vars kostnader är som mest en faktor 2 av den minsta möjliga kostnaden; för en variation som kallas Connectivity Game, där varje nod bara krävs för att anslutas (eventuellt via mellanliggande noder) till en given uppsättning noder, visar vi att besvara frågan, om en Nash jämvikt finns, är NP -hard, om nätverksgrafen uppfyller triangeln ojämlikhet. För ett andra spel som heter Reachability Game, där varje nod försöker nå så många andra noder som möjligt, medan minimera sin radie, visar vi att 1 + o(1)-ungefärliga Nash equilibria finns för slumpmässigt fördelade noder. Vårt arbete är ett första steg mot spelteoretiska analyser av ad hoc-nätverk. * Los Alamos National Laboratory Report LA-UR-03-3269. | Min sst-spelet är starkt relaterat till två topologikontrollproblem (anslutningsspelet och Strong Connectivity Game) i statiska ad hoc-nätverk som studeras av Eidenbenz et al. Hoppa över det. | 5,622,554 | Equilibria in topology control games for ad hoc networks | {'venue': "DIALM-POMC '03", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,772 |
Abstract-Problemet att associera data med mål i en belamrad multi-målmiljö diskuteras och tillämpas på passiv ekolod spårning. Den probabilistiska dataföreningen (PDA) metod, som bygger på att beräkna den bakre sannolikheten för varje kandidat mätning som finns i en valideringsport, antar att endast ett verkligt mål är närvarande och alla andra mätningar är Poisson-distribuerade skräp. I denna uppsats presenteras ett nytt teoretiskt resultat: den gemensamma probabilistiska dataföreningen (JPDA) algoritm, i vilken gemensam bakre association sannolikheter beräknas för flera mål (eller flera diskreta störande källor) i Poisson rör sig. Algoritmen tillämpas på ett passivt sonarspårningsproblem med flera sensorer och mål, där ett mål inte är fullt observerbart från en enda sensor. Målen är modellerade med fyra geografiska tillstånd, tw'o eller mer akustiska tillstånd, och realistiska (Le., låg) sannolikhet för detektion vid varje provtillfälle. Ett simuleringsresultat presenteras för två kraftigt störande mål som illustrerar de dramatiska spårningsförbättringar som uppnåtts genom att uppskatta målens stater med hjälp av gemensamma associationsannolikheter. HAN problem och frågor som är involverade i multi-målhavsspårning med hjälp av en heterogen uppsättning passiva akustiska mätningar beskrevs i [ 1 ]; chef bland dessa är data association och manöverdetektering. Ett tillvägagångssätt för att lösa dessa problem beskrevs också. T h e resulterande experimentell algoritm innebär en utökad Kalman-Bucy ficer (EKF) med både geografiska och akustiska tillstånd, och hanterar mätvektorer såsom lager / frekvens och fördröjning / Doppler skillnad. Grunden för spårningsalgoritmen är en probabilistisk dataförening (PDA) som baseras på [2 ], där senare associationsannolikheter beräknas för alla aktuella kandidatmätningar i en valideringsport och används för att bilda en viktad summa av innovationer för att uppdatera målets tillstånd i en lämpligt modifierad version av EKF. Ett korrektionsterm i Ricatti ekvationen står för osäkerheten i mätningens ursprung och den resulterande statsuppskattningen är den villkorliga förväntan, med förbehåll för antagandet att statsuppskattningen är Gaussian före varje uppdatering. Detta antagande är tveksamt, men det leder till ganska godtagbara resultat i praktiken. Utöver det grundläggande PDA-systemet erhöll en multihypotesmanuskript den 2 november 1982, som reviderades den 11 februari 1983. Detta arbete stöddes av byrån för marin forskning inom ramen för kontrakten N00014-80-C-0270 och N00014-78-C-0529. Befattning: a) a) a) b) b) b) b) c) c) c) c) c) c) c) c) c) c) c) c) c) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) d) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e) e c) e) e) e e e e) e) e) e) e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e e T. E. Fortmann är med Bolt Beranek och Newman, Inc., Cambridge, Data Science, University of Connecticut, Storrs, CT 06268. M. Scheffe är med Institutionen för flyg- och maskinteknik, Boston University, Boston, MA 02215. struktur används för andra beslutsfattande: inklusive manöverdetektering/korrigering, spårinitiering, och särskilt svåra beslut data association; hela spårningssystemet har körts framgångsrikt i realtid experiment. Här kommer dock endast mekanismen för offentlig utvecklingsbistånd att övervägas. Den grundläggande PDA-algoritmen förutsätter att varje mål är isolerat från alla andra mål: falska mätningar i en valideringsport är modellerade som oberoende skräppunkter hämtade från en Poisson distribution med rumslig densitet C, och detektion av ett mål är en oberoende händelse vid varje provtagningstid med sannolikhet Po. I havet kommer de falska mätningarna ofta från andra mål och kan inte riktigt modelleras som oberoende Poissons skräppunkter. Dessutom, med passiva mätningar, interferens är sannolik vid relativt låga måltätheter; till exempel, geografiskt avlägsna mål kan ligga på samma azimut och vara nästan oskiljaktiga från en enda sensor. Vår erfarenhet av verkliga data visar dock att många av dessa upptäckter är så falska att de störande målen på ett effektivt sätt är ospårbara och i praktiken ger Poissons antaganden ofta godtagbara resultat. Poissons antagande bryts ned och prestanda försämras avsevärt i närvaro av diskreta störande källor, dvs. när störande mål detekteras konsekvent av en eller flera sensorer. I detta fall är de störande källorna vanligtvis spårbara och PDA-algoritmen kan utökas för att korrigera för dem genom att beräkna de bakre sannolikheterna gemensamt mellan kluster av mål; endast röran modelleras då som Poisson. I en inledande härledning [ 3 ], några olämpliga antaganden ledde till felaktiga tidigare sannolikheter och kombinatorik att upprätthålla separata validering grindar för varje mål gjorde det mycket svårt att genomföra. Huvudresultatet av detta dokument är en ny gemensam probabilistisk dataförening (JPDA) algoritm för flera mål i Poisson skräp. Detta är ett målorienterat tillvägagångssätt, i den meningen att en uppsättning fastställda mål används för att bilda grindar i mätutrymmet och för att beräkna bakåtvända sannolikheter, i motsats till de mätningsorienterade algoritmerna i Reid [4] och andra, där varje mätning i sin tur anses och hypotes att ha kommit från något etablerat spår, ett nytt mål eller rör. Även om dessa två synpunkter kan visas (med lämpliga antaganden) för att ge likvärdiga uttryck för de senare sannolikheterna, är skillnaden mellan dem mer än bara filosofisk. Varken position eller hastighet är fullt observerbar från en enda passiv mätning och rörtätheten i havsmiljön är normalt ganska hög; dessa två egenskaper gör det i huvudsak intractable att hypothesize ett nytt spår för varje enskild mätning. I vårt synsätt initieras målen av en separat operatörsinteraktiv process med hjälp av sammansatta grupper av mätningar. Detta är också en nonbackscan (eller noll-scan) metod, vilket innebär att alla hypoteser kombineras efter beräkning av sannolikheterna, för varje mål vid varje tidpunkt steg. Även om det kan utvidgas för att behålla n-skanningar som i [5], skulle detta leda i den passiva ekolodsmiljön till enorma minneskrav på grund av den relativt höga rörtätheten (0,2-2,0 falska upptäckter per grind) och det stora antalet separat uppmätta variabler (2-12 valideringsgrindar per mål) som vanligtvis förekommer. På grund av den falska karaktären hos många av de falska upptäckterna anser vi dessutom att JPDA är mer kostnadseffektivt än en brute-force n-scan algoritm i denna miljö. Att behålla flera skanningar skulle också orsaka enorma komplikationer för manövrerings- och hypotestestningsmaskineriet som är byggt ovanpå JPDA-spåraren. Slutligen är detta ett rekursivt tillvägagångssätt som lämpar sig för att effektivt underhålla etablerade spår, medan batchorienterade tillvägagångssätt, t.ex. [12], är lämpliga för inledande spårbildning i en ostrukturerad uppsättning data från ett begränsat tidsintervall och/eller från ett delutrymme i mätutrymmet. De två tillvägagångssätten kompletterar varandra och det är lämpligt att en sådan satsalgoritm (eller den operatörsinteraktiva process som nämns ovan) initierar spår och vidarebefordrar dem till JPDA-algoritmen för fortsatt databindning och spårning. En preliminär version av detta dokument publicerades i [l o ]. Frågorna om olösta mätningar och målmanövrar diskuteras i [I61 och en algoritm beskrivs som utökar det arbete som presenteras här. En annan intressant förlängning kan hittas i [ 171, som kvantifierar beroendet av PDA-spårning prestanda på en detektionströskel i signalbehandlingsalgoritmen som levererar sina mätningar. Multimåldataföreningens problem formuleras i nästa avsnitt, följt av en härledning av den nya JPDA-algoritmen i avsnitt 111. En specifik tillämpning i passiv sonarövervakning beskrivs i avsnitt IV, och de prestandaförbättringar som uppnås med JPDA-algoritmen i denna applikation illustreras i avsnitt V med hjälp av simulerade data från två kraftigt störande mål i röran. Överväga ett dynamiskt system (målmodell) av den bekanta formen där x är måltillstånd vektorn, y är mätvektorn, w och u är noll-medel ömsesidigt beroende vita Gaussian bullervektorer med covariance matriser Q och R, respektive, och k är ett diskret tid index. De matriser F, G, H, &, och R antas vara kända och deras beroende av k dämpas här för notationell bekvämlighet. Det initiala tillståndet antas Gaussian med medel ;ole och covariance Polo. En särskild målmodell beskrivs nedan i avsnitt IV. där innovationsvektorn har kovariansmatrisen och filtervinstmatrisen är Den resulterande statsuppskattningen, under ovanstående antaganden, är det villkorliga medelvärdet där Yk betecknar uppsättningen av alla datavektorer y j för i < k. För att undvika att skräpa i diskussionen att följa, ignorerar denna korta sammanfattning ett antal komplikationer som uppstår i praktiken. Om systemet är ickelinjärt, till exempel (som det är i exemplet nedan), kan det vanligtvis linjäriseras och samma grundläggande ekvationer kan tillämpas på avvikelser från den nominella banan [7], [9]. Om målet ibland avviker från den antagna rörelsemodellen, t.ex. genom manövrering, ska beslut eller annan maskin tillhandahållas för att hantera dessa fall. En grundläggande egenskap hos denna klass av problem är att storleken och sammansättningen av mätvektorn är oförutsägbara från en gång till nästa; med andra ord,yk omfattar en tidsvariation av oberoende subvektorer, som diskuteras nedan i avsnitt IV. Vi ska undvika det resulterande notationsmoraset genom att begränsa (2.3)-(2,6) till att gälla för en enda mätsubvektor y k från en enda sensor. Dessutom kommer vi att undertrycka tiden subscript k från alla variabler utom P och Y, om det inte krävs för tydlighet. Utan någon förlust av generalitet, data association problem kan nu formuleras på följande sätt. Vid varje steg ger sensorn en uppsättning kandidatmätningar som ska associeras med mål (eller förkastas). I de flesta infallsvinklar görs detta genom att bilda en "valideringsgrind" runt den förutsagda mätningen från varje mål och behålla endast de upptäckter som ligger inom porten. Det finns och motsvarande innovationer är Termen mätning kommer att användas utbytbart för yi och j j j, eftersom de innehåller motsvarande information [9]. betecknar händelsen att jth mätningen tillhör det målet och x. händelsen att ingen av mätningarna tillhör det (ingen upptäckt). PDA-metoden bygger på antagandena att skattningsfelen $ och p har Gaussian densiteter vid varje steg (detta är ungefärligt, eftersom det finns ett exponentiellt växande träd av möjliga mätsekvenshypoteser och de verkliga densiteterna är viktade summor av Gaussians). Det antas också att korrekt mätning upptäcks med sannolikhet Po (oberoende, vid varje tillfälle) och att alla andra mätningar är Poisson-distributedl med parameter CV, där C är förväntat antal (eller densitet) falska mätningar per volymenhet och Vis volymen av valideringsporten. Porten är normalt en "g-sigma" ellipsoid { y :?IS-'? <2) och PC är sannolikheten att den korrekta mätningen, om de- 1 Motsvarande antal n falska mätningar har sannolikhetsvikt funktion p ( n ) = e-cv(CVp/n! och platsen för varje falsk mätning är jämnt fördelad i porten. 2 Detta är bara den Gaussiska sannolikhetsmassan i porten, som är M1/2 + 2. ofta antas vara enhet i praktiken, eftersom PC > 0,99 när g > står för mätning ursprung osäkerhet. Observera att de databeroende faktorerna Po och Pk omvandlar den ursprungliga deterministiska Riccati-ekvationen till en stokastisk ekvation. Ekvationerna ovan definierar PDA-filtret för ett enda mål, och ytterligare mål kan hanteras med flera kopior av filtret. När det gäller ett visst mål beter sig dock inte mätningar från störande mål alls som den slumpmässiga (Poisson) röran som antas ovan. I stället måste sannolikhetstätheten för varje kandidatmätning beräknas utifrån densiteten hos alla mål som är tillräckligt nära (när de projiceras in i mätutrymmet) för att störa. För att ta hänsyn till detta ömsesidiga beroende, överväga ett kluster3 av mål (etablerade spår) numrerade t = 1, e -, T vid en given tidpunkt k. Den uppsättning m kandidatmätningar i samband med detta kluster (dvs., som finns i valideringsportarna för mål 1. -.. T ) betecknas yi, j = 1 ~ e., m, enligt ovan. Varje mätning tillhör antingen ett av T-målen eller en uppsättning falska mätningar (clutter), som betecknas med målnummer t = 0. Att ange den förutsedda mätningen för mål t b y i f, t h e innovation (2.10) som motsvarar mätning j blir där grop är den bakre sannolikheten att mätning j härrör från mål t och pott är sannolikheten att ingen av mätningarna härrör från mål t (dvs.: det upptäcktes inte). Detta används i mål t's kopia av (2.3) för att uppdatera statsuppskattningen 5'. Med andra ord använder den gemensamma probabilistiska dataföreningen (JPDA) och PDA samma skattningsekvationer; skillnaden är i hur föreningens sannolikheter beräknas. Medan PDA algoritm beräknar grop, j = 0, 1, -0, m, separat för varje t, under antagandet att alla mätningar som inte är förknippade med mål t är falska (dvs. Poisson-distribuerade skräp), JPDA algoritm gemensamt över uppsättningen av T mål och skräp. Ur ett måls synvinkel står detta för falska mätningar från både diskreta interfererande källor (andra mål) och slumpmässig oreda. Detaljer ges i nästa avsnitt. Nyckeln till JPDA algoritmen är utvärdering av de villkorliga sannolikheterna för följande gemensamma händelser: 3 Ett kluster är en uppsättning mål vars valideringsportar är "anslutna" där xiri är händelsen att mätning j härrör från mål ti, 0 < ti < T, och ti är indexet för det mål till vilket mätning j är associerad. De möjliga händelserna är de gemensamma händelser där inte mer än en mätning härrör från varje mål, dvs. det är också praktiskt att definera indikatorn för mätsamband som anger om mätning j är associerad med något fastställt mål i händelse x, och indikatorn för måldetektering som anger om någon mätning är associerad med mål t i n händelse x (Le. om målvärde tis detekterats). För att härleda uttryck för de gemensamma sannolikheterna kommer inga individuella valideringsgrindar att antas för de olika målen i ett kluster. I stället antas varje mätning valideras för varje mål, dvs. varje valideringsgrind sammanfaller med hela övervakningsområdet. Detta tillvägagångssätt används eftersom de resulterande ekvationerna är likvärdiga med men enklare än de som härleds om olika valideringsgrindar antas för varje mål. Den extra beräkningsbörda som uppstår vid bedömningen av händelser med försumbar sannolikhet kan undvikas med lämplig logik som begränsar sannolikhetsberäkningarna till händelser som inbegriper validerade mätningar. Denna logik, som har en försumbar effekt på de numeriska resultaten, presenteras därefter, följt av en härledning av sannolikheten för gemensamma händelser. Slutligen, marginalhändelsen (mätning-till-mål-associering) sannolikheter som krävs av spårningsfiltret erhålls från sannolikheten för gemensam händelse. Följande valideringsmatris defineras med binära element för att indikera om mätning j ligger i valideringsgrinden för mål t. Index t = 0 står för "inget mål" och motsvarande kolumn i SL har alla enheter varje mätning kan ha sitt ursprung i skräp eller falsklarm. En typisk uppsättning grindar och motsvarande valideringsmatris visas i bild. 1................................................................ Varje händelse x kan representeras av en matris bestående av enheterna i S2 motsvarande föreningarna Med tanke på stort tålamod? Man kan coqstruct en procedur som skannar S2 och räknar upp de matriser Q(x) som motsvarar möjliga händelser enligt följande regler: 1) Skanna R efter rader och välj en enhet per rad för Sl (dvs. det kan bara finnas ett ursprung för en mätning). 2) Endast en enhet från varje kolumn t 2 1 kan tas (dvs. högst en mätning kan ha härrört från ett mål). Antalet enheter från kolumn t = 0 är inte begränsat. Med Bayes' regel, sannolikheten för en gemensam händelse beroende på alla mätningar fram till nutid är P ( x I Y~} = P ( X I~,. ............................................................................................................. Med samma antaganden som i PDA-metoden har en mätning y j i samband med ett mål t en Gaussisk densitet5 där Fit är den innovation som definieras i (2.14) och S, är dess kovarians. En mätning i samband med skräp har en enhetlig densitet V-', där V är volymen för hela övervakningsområdet (observera att i avsnitt I1 och tillägget var V volymen för en enda grind). Härav följer att densiteterna hos enskilda mätningar i (3.1 1) anges av (3.13) Den andra faktorn i (3.10) är den tidigare (till tiden k ) sannolikheten för en gemensam händelse. För att erhålla den, observera att det totala antalet falska mätningar i händelse x är m (3.14) Substitution (3.1 l), (3.13) och (3.16) i (3.10) avkastning (3.17) Observera att @! Avbryter omedelbart (3.17). Dessutom, m! och e-" visas i (3.1 7) oavsett vilken händelse som beaktas. Eftersom nämnaren c från (3.17) är summan av alla täljare, följer det att m! och e- ''avbryt också. Det slutliga uttrycket erhålls som var c är den (nya) normaliseringskonstanten. Numeriskt överflöd och underflöden är vanliga i faktor Co och normaliseringskonstanten c, eftersom omfattningen av C (i enheter av I / volym i mätutrymmet) är ganska variabel och @ kan vara 10 eller mer. Problemet kan undvikas helt enkelt genom att låta 1 /C vara enhetsvolymen vid beräkning (3.18), så att C@is ersatt med lo. Denna förändring sipprar ut i den exponentiella faktorn, och det orsakar I Srj I '1' i nämnaren att multipliceras med C. Alternativt kan man använda logaritmer för att komprimera det numeriska intervallet. Med detta, den tidigare sannolikheten för händelse x ges av P{xIm,Y"-lI där Pot är sannolikheten för att upptäcka mål t, antalet @ falska mätningar antas återigen Poisson distribueras med parameter CV, Cis densitet falska mätningar, och beroendet av @ och 6 t på x har tappats från notationen. 5 Den Gaussiska densiteten defled i (A. 7) i tillägget innehåller en faktor ~ / P G för att redogöra för dess begränsning till valideringsporten. Här vi assurnePG = 1 (motsvarande en mycket stor grind) för bekvämlighet. Passiv ekolod spårning är ett mycket utmanande program för data association och spårning algoritmer; de flesta av de skillnader och idiosynkrasier som uppstår i havsmiljön har diskuterats ovan och i [I ]. I detta avsnitt ska vi kortfattat beskriva en särskild modell för mål/mätning som har använts framgångsrikt i detta sammanhang. Spårningsresultat med hjälp av denna modell i JPDA-filtret presenteras i nästa avsnitt. Vi antar att varje mål följer en nominell rak linjebana med slumpmässiga störningar (stor cirkelrörelse kan lätt ersättas vid behov) och utstrålar akustisk energi i ett eller flera karakteristiska frekvensband. Eftersom mycket av den akustiska energin produceras av framdrivningssystemet (motor, växlar, axlar, propellrar, etc.).) är motsvarande frekvenser kopplade till målhastigheten. Dessa relationer sammanfattas för ett visst mål genom följande tillstånd ekvationer:6 Vi anser en uppsättning passiva sensorer, som var och en detekterar inkommande "signaler" (akustisk energi) och uppskattar deras lager (arrivalvinklar) och mittfrekvenser. Således har en ensensor mätning av en signal från det mål som beskrivs i (4.1) den formlagerfrekvens där n är ett sensorindex, målets lager f i n (-) och vinkel a, (.) är standard trigonometriska funktioner, är Fk en av associerade med ett visst måls tillstånd består av subvekatorer av th'e form (4.2) och (4.3), som motsvarar olika kombinationer av sensorer, källfrekvenser och övertoner. I praktiken har de erhållna mätningarna som motsvarar dessa subvektorer föga eller ingen förhandsinformation för att länka dem, och det är lämpligt att hantera var och en av dem separat. Dessutom kan varje mätning vara frånvarande (oupptäckt) och kan åtföljas av falska mätningar från olika mål och/eller skräp: detta är kärnan i det problem med databindning som diskuteras i avsnitt 11. Ekvationer (4.1) och (4.4) är lätt linjära och provtas vid diskreta tidpunkter, vilket ger målmodellen (2.1)-(2.2). Spårresultat med hjälp av denna modell i JPDA fdter på simulerade data anges i nästa avsnitt. Ett simuleringsprogram användes för att skapa realistiska passiva sonardata på vilka JPDA-algoritmen kunde testas. En sådan datauppsättning innehåller mätfiler av lagerfrekvenslirar och tids-/dopplerskillnader för två hypotetiska mål, med en gemensam 12-Hz källfrekvens och kurser som resulterar i allvarlig störning. Målsensorgeometrin anges i bild. 2............................................................... Mål 1 och 2 resa på 6 kn på kurser på 100' respektive 800, respektive korsa halvvägs genom 6-h perioden visas. Mätdata skapades genom död räkning mål 6 Symbolerna C, V, M, f, k, e, m, och p som används i detta avsnitt är un-7 I praktiken är mätdata vanligtvis integrerade över en aprelaterade till dem som användes tidigare. Proprierad period, snarare än provtagning, för att förbättra SNR. rörelse (inga processbuller), lägga till buller till de beräknade verkliga mätningarna och sedan lägga till skräpmätningar (falska detektioner). Standardavvikelsen för mätbullret var 5'' för lager, 80 mHz för frekvens, 3,6 s för tidsskillnad och 4 mHz för Dopplerskillnad. Den verkliga mätningen upptäcktes vid varje given tidpunkt med sannolikhet Po = 0,7. Antalet skräppunkter var Poisson-distribuerat och deras placeringar i mätutrymmet fördelades jämnt över en mycket bred region om själva spåret. Skruvtätheten var C = 0,25/(Hz.deg) för lager/frekvens och C = 0,25/(Hz) för tids-/dopplerskillnad; med 'varierande grindstorlekar' varierade detta mellan 0,2 och 2,0 falska upptäckter per grind. Flera spår gjordes med hjälp av denna data; de initiala 2-sigma konfidens ellips områden var 2% nmi2, med kurs och hastighet konfidensnivåer på +20° och €3 kn, respektive. I praktiken skulle man använda något lösare gränser för att initiera osäkra mål, men syftet här var att simulera en situation där spåren redan är väletablerade innan de skär. Även om data inte hade något processbuller, filtret gavs processbuller standardavvikelser på 0,2 kn i hastighet, 0,2" i kurs, och 0,01 Hz i källfrekvens @ för att undvika avvikelser. Bilda. 3 visar spår som gjorts med hjälp av den välkända "nerest granne" data association system [ 131, där kandidaten mätning närmast centrum för varje validering grind accepteras som korrekt, alla andra ignoreras, och covariance ekvationen är inte förstärkt för att redovisa föreningsfel. Som man kan förvänta sig blir spåraren hopplöst förvirrad och förlorar ett av målen helt och hållet. Det vanliga PDA-filtret (utan flermålslogik) går bara något bättre i denna situation. Som visas i bild. 4, båda spåren låser på en typ av "kompromiss" och hamnar förlorade halvvägs mellan de två faktiska målen. Detta beteende förväntas, eftersom ett grundläggande antagande i standard-PDA algoritmen (tillämpas på varje mål i sin tur) är att mätningar som inte härrör från det aktuella målet är slumpmässiga skräppunkter med en Poisson/uniform fördelning. Den gemensamma PDA-metoden, som beskrivs ovan i avsnitt 111, korrigerar denna situation genom att tillåta att de probabilistiska vikter som används i dataföreningen beräknas med joiyltZy över alla kända mål. Som visas i bild. 5, Detta förbättrar spåren dramatiskt, och 2-sigma förtroende ellipser innehåller den sanna positionen i alla fall. Observera att ellipserna är större än i Fig. 4, särskilt nära skärningspunkten, återspeglar det faktum att algoritmen "hedges" sina beslut och förlitar sig mer på död räkning när målen är för nära att avgöra med hög tillförlitlighet vilken mätning tillhör vilket mål. Den JPDA-bedömda associationssannolikheten för en mätning som hör till det korrekta målet jämfört med den andra har normalt förhållandet 0,8/0,2 eller högre tidigt under körningen. När målen närmar sig varandra, växlar nyckeltalen ganska plötsligt till omkring 0,5/0,5 (och förtroendet ellips områden ökar i enlighet därmed); sedan byter de tillbaka igen när målen separerar. JPDA överträffar de andra metoderna på grundval av hur ofta korrekt mätning får den högsta sannolikheten [lo], men skillnaden är inte nästan lika stor på Figs. 3-5 tyder på det. Dessa fakta tyder på att det verkliga värdet av JPDA-metoden ligger i de relativa sannolikheter som beräknas vid nyckelpunkter i målbanorna, snarare än i den totala procentandelen av korrekta binära "beslut". Slutligen visas spår som gjorts med hjälp av perfekt databindning i bild. 6............................................................. Jämför dessa med Fig. 5, Det är tydligt att JPDA tracker presterar anmärkningsvärt bra trots den allvarliga störningen mellan mål. I slutet av den 6-timmars perioden är de två uppsättningarna spår nästan identiska. Lika viktigt som spårningsnoggrannhet är spårarens egen bedömning av den noggrannheten, uttryckt genom kovariansmatrisen. För att jämföra detta för spåren av Figs. 3-6, filterkonsistensmått beräknades vid varje tidpunkt k, där x k är det verkliga tillståndet, ik är uppskattningen, och Pk är covariance matris beräknas on-line av spåraren. Medel-kvadrat och rot-medel-kvadrat (rms) värden av denna statistik över 6-h perioden (7 1 tidssteg) ges i tabell I, tillsammans med tlieir'teoretiska värden (r2 är en chi-kvadrat slumpmässig variabel med 6 grader av frihet). Tabell I visar att den vanliga handdatorn är överoptimistisk, med faktiska fel som är mycket större än den beräknade kovariansen skulle tyda på. JPDA-spåraren är ungefär lika konsekvent som den perfekta dataföreningsspåraren och båda är något pessimistiska i jämförelse med det teoretiska chi-kvadratvärdet. I tabell I visas också de slutliga positionsfelen (i nautiska mil) för samma period. Olyckligtvis är det fiiala positionsfelet för Target 2 med hjälp av den vanliga handdatorn något bättre än de andra. Förvirringen av den vanliga handdatorn framgår dock tydligt av Fig. 4........................................... Observera att ovanstående resultat endast representerar ett enda "prov" från utrymmet för alla möjliga buller-/klumpsekvenser och mål-/sensorgeometrier; en Monte Carlo-strategi som omfattar många sådana prover skulle utgöra en statistisk grund51 för att utvärdera algoritmen. De omfattande simuleringar och realistiska tätheter som används här är dock måttligt kostsamma och Monte Carlo-simuleringar var inte möjliga med tillgängliga r'esources. Resultaten av detta dokument visar vikten av att korrelera (dvs. associera) varje rapport med alla spår samtidigt, snarare än separat. Den gemensamma probabilistiska data association ram är särskilt väl lämpad för denna uppgift i den passiva ekolod miljö, där ytterligare mätningar uppstår från både störande mål och slumpmässigt skräp, detektion sannolikhet är betydligt mindre än 1, mätutrymmet är stor och heterogen, ett mål tillstånd inte är fullt observerbar från någon enskild mätning, och manövrer är vanliga. Fortsatt forskning inom detta och relaterade områden omfattar bedömning av spårningsprestanda som en funktion av detektionssannolikhet och rörtäthet [17] (detta har viktiga konsekvenser för fastställandet av vinster och trösklar i signalbehandlingsalgoritmer som ger mätningar till spåraren), utvidgning av sannolikhetsfunktionen och andra hypotestestmaskiner (e%, för manövrering) till JPDA-situationen, användning av mer komplexa modeller för detektions- och rörprocesser samt automatiserade system för initiering av spår. I detta tillägg ska vi härleda uttryck för de senare associationssannolikheterna flj i (2.1 1). Låta rj(m) betecknar den tidigare sannolikheten för händelsen xi, beroende på m, den totala sannolikheten teorem avkastning Den första faktorn är den gemensamma sannolikhetstätheten för m kandidatmätningar, beroende på att jth en är korrekt. Enligt PDA:s antaganden har den korrekta mätningen yj en Gaussisk densitet med medelvärdet 0 och kovarians S, där faktorn 1/PG står för dess begränsning till valideringsgrinden och varje felaktig mätning har en enhetlig densitet Y-l. Av detta följer att den andra faktorn i (Ah) är den tidigare sannolikheten för xi, given av (AS). nämnaren är den gemensamma föregående densiteten hos mätningarna, villkorade endast på m (och tidigare data) Observera att med ovanstående konditionering är de validerade mätningarna inte oberoende, dvs. (A.9) är inte lika med prod- | Mer komplexa metoder, såsom Joint Probabilistic Data Association Filter (JPDA) REF kombinerar alla potentiella mätningar i ett vägt genomsnitt, innan den associeras till banan, i en enda uppdatering. | 53,120,319 | Sonar tracking of multiple targets using joint probabilistic data association | {'venue': None, 'journal': 'IEEE Journal of Oceanic Engineering', 'mag_field_of_study': ['Engineering']} | 1,773 |
I detta dokument presenteras ett tillvägagångssätt för att formellt specificera och genomföra säkerhetsstrategier för genomförandet av webbtjänster. Nätbaserade tjänster i allmänhet, och webbtjänster i synnerhet, kräver omfattande mängder kod för att säkerställa att kunderna respekterar webbplatsintegrerade begränsningar. Vi tillhandahåller ett språk med vilket dessa begränsningar kan uttryckas och verkställas automatiskt, portabelt och effektivt. Säkerhetspolicyer i vårt system specificeras i ett språk baserat på temporal logik, och behandlas av en exekutionsmotor för att ge plats och plattformsspecifika åtkomstkontrollkod. Denna kod är integrerad med en webbserver och plattformsspecifika bibliotek för att upprätthålla den angivna policyn på en viss webbtjänst. Vår strategi frikopplar den säkerhetspolitiska specifikationen från tjänsteimplementeringar, ger en obligatorisk åtkomstkontrollmodell för webbtjänster och ger goda resultat. Vi visar att upp till 22% av koden i en traditionell webbtjänstmodul är dedikerad till säkerhetskontrollfunktionalitet, inklusive kontroller för kundsekvensering och parametervalidering. Vi visar att vår prototyp språkimplementation, WebGuard, gör det möjligt för webbprogrammerare att avsevärt minska mängden säkerhetskontroll kod de behöver för att utvecklas manuellt. Kvaliteten på den kod som genereras av WebGuard från formella policyspecifikationer är konkurrenskraftig med latency handgjorda koden till inom några procent. | Ett åtkomstkontrollspråk baserat på tidsmässig logik har definierats av Sirer och Wang REF särskilt för webbtjänster. | 11,784,167 | An access control language for web services | {'venue': "SACMAT '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,774 |
Vi presenterar CROSSGRAD, en metod för att använda multi-domän utbildningsdata för att lära sig en klassificering som generaliserar till nya domäner. CROSSGRAD behöver inte en anpassningsfas via märkta eller omärkta data, eller domänfunktioner i den nya domänen. De flesta befintliga domänanpassningsmetoder försöker radera domänsignaler med hjälp av tekniker som domänadversarieträning. Däremot är CROSSGRAD fritt att använda domänsignaler för att förutsäga etiketter, om det kan förhindra överutrustning på utbildningsdomäner. Vi konceptualiserar uppgiften i en Bayesiansk inställning, där ett provtagningssteg implementeras som dataförstärkning, baserat på domänstyrda perturbationer av inmatningsinstanser. CROSSGRAD tränar parallellt en etikett och en domänklassificering på exempel som störs av förlustgradienter av varandras mål. Detta gör det möjligt för oss att direkt störa ingångar, utan att separera och omblanda domänsignaler samtidigt som vi gör olika fördelningsantaganden. Empirisk utvärdering av tre olika tillämpningar där denna inställning är naturlig fastställer att (1) domänstyrd perturbering ger konsekvent bättre generalisering till osynliga domäner, jämfört med generiska perturberingsmetoder, och att (2) dataförstärkning är en stabilare och mer exakt metod än domänadversarial utbildning. | Metoder för dataförstärkning: CrossGrad REF genererar domänstyrda perturbationer av inmatningsinstanser, som sedan används för att träna en mer robust modell. | 13,754,527 | Generalizing Across Domains via Cross-Gradient Training | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,775 |
Ett trådlöst sensornätverk (WSN) består av ett stort antal sensornoder som är otillräckliga i energi, lagring och processkraft. En av de viktigaste uppgifterna för sensornoder är insamling av data och vidarebefordrande av insamlade data till basstationen (BS). Nätverkets livslängd blir därför de viktigaste kriterierna för en effektiv utformning av datainsamlingssystemen i WSN. I detta dokument införs ett energieffektivt LEACH-protokoll (EE-LEACH) för insamling av uppgifter. Det erbjuder en energieffektiv routing i WSN baserat på den effektiva dataensemblen och optimal klusterbildning. I detta system väljs ett klusterhuvud för varje kluster för att minimera energiavledning av sensornoder och för att optimera resursutnyttjandet. Den energieffektiva routingen kan erhållas med noder som har den maximala restenergin. Därför, de högsta restenergin noder väljs för att vidarebefordra data till BS. Det hjälper till att ge bättre paketleveransförhållande med mindre energiutnyttjande. De experimentella resultaten visar att den föreslagna EE-LEACH ger bättre prestanda än det befintliga energibalanserade routingprotokollet (EBRP) och LEACH-protokollet när det gäller bättre paketleveransförhållande, mindre end-to-end fördröjning och energiförbrukning. Det är uppenbart att den föreslagna EE-LEACH kan förbättra nätverkets livslängd. | Arumugam och Ponnuchamy REF införde ett energieffektivt LEACH-protokoll (EE-LEACH) för datainsamling. | 34,294,244 | EE-LEACH: development of energy-efficient LEACH Protocol for data gathering in WSN | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 1,776 |
Vi undersöker effekten av att använda wordspacemodeller som en approximation av den typ av lexico-semantisk och allmängiltig kunskap som behövs för samreferensupplösning av bestämda beskrivningar, det vill säga bestämda NPs med ett gemensamt substantiv som huvud, för svensk nyhetstext. Vi jämför ett system med semantisk kunskap från ordrymdsmodellerna med ett semantiskt okunnigt system och ett annat system som tar sin semantiska information från en semantisk ordbok som kallas SynLex. Vi visar på en förbättring av resultaten för två olika utvärderingsuppgifter för systemet med hjälp av ordet rymdbaserad semantisk information över båda andra system. | REF ) undersöka effekten av att använda vektorrymdmodeller som en approximation av den typ av lexico-semantisk och allmängiltig kunskap som behövs för coreferensupplösning för svenska texter. | 6,259,197 | Using Semantic Features Derived from Word-Space Models for Swedish Coreference Resolution | {'venue': 'NODALIDA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,777 |
Abstract-Vi presenterar ett effektivt tillvägagångssätt för att generera vägar för en robotmanipulator som är kollisionsfri och garanterat uppfyller uppgiftsspecifikationer trots att det är osäkert. Vi beskriver först hur man använder Task Space Regions (TSR) för att specificera grepp- och objektplaceringsuppgifter för en manipulator. Vi visar sedan hur man modifierar en uppsättning TSR för en viss uppgift att ta hänsyn till utgör osäkerhet. En viktig fördel med detta tillvägagångssätt är att om osäkerheten är för stor för att utföra en viss uppgift, kan vi snabbt förkasta den uppgiften utan att åberopa en planerare. Om uppgiften inte förkastas kör vi IKBiRRT planeraren, som avlastar utforska robotens C-utrymme med provtagning från TSR:er för att beräkna en väg. Slutligen visar vi flera exempel på en 7-DOF WAM arm planering vägar i en rörig köksmiljö där poserna av alla objekt är osäkra. | Berenson m.fl. REF använde Task Space Regions (TSR) och modifierade dem för att hantera utgör osäkerhet. | 5,641,907 | Addressing pose uncertainty in manipulation planning using Task Space Regions | {'venue': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2009 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']} | 1,778 |
Abstrakt. Inkrementell inlärning (IL) har fått mycket uppmärksamhet på senare tid, men litteraturen saknar en exakt problemdefinition, korrekta utvärderingsinställningar och mått anpassade speciellt för IL-problemet. Ett av huvudmålen med detta arbete är att fylla dessa luckor för att skapa en gemensam grund för bättre förståelse av IL. Den största utmaningen för en IL-algoritm är att uppdatera klassificeringen samtidigt som befintlig kunskap bevaras. Vi observerar att förutom att glömma, en känd fråga samtidigt bevara kunskap, IL också lider av ett problem som vi kallar oförsonlighet, oförmåga av en modell att uppdatera sin kunskap. Vi introducerar två mätvärden för att kvantifiera glömska och oförsonlighet som gör att vi kan förstå, analysera och få bättre insikter i IL-algoritmers beteende. Vi presenterar RWalk, en generalisering av EWC++ (vår effektiva version av EWC [7] ) och Path Integral [26] med ett teoretiskt grundat KL-divergence-baserat perspektiv. Vi tillhandahåller en grundlig analys av olika IL algoritmer på MNIST och CIFAR-100 dataset. I dessa experiment får RWalk överlägsna resultat i form av noggrannhet, och ger också en bättre avvägning mellan glömska och oförsonlighet. | REF föreslår en KL-divergensbaserad generalisering av Elastisk viktkonsolidering och Path Integral. | 4,047,127 | Riemannian Walk for Incremental Learning: Understanding Forgetting and Intransigence | {'venue': '15th European Conference on Computer Vision (ECCV), 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,779 |
Abstrakt. Fel som införs i system under utveckling är dyra att åtgärda, och särskilt för affärskritiska system. Dessa system utvecklas med hjälp av gemensamma utvecklingsmetoder, men har höga krav på pålitlighet. I detta dokument redovisas en pågående utredning av felrapporter från norska IT-företag, där syftet är att få en bättre förståelse för fel som har upptäckts under utvecklingen och hur detta kan påverka systemets kvalitet. Vårt mål i detta dokument är att undersöka felprofilerna för fyra affärskritiska kommersiella projekt för att undersöka om det finns skillnader i hur fel förekommer i olika system. Vi har genomfört en empirisk studie genom att samla in felrapporter från flera industriprojekt, jämföra resultat från projekt där komponenter och återanvändning har varit kärnstrategier med mer traditionella utvecklingsprojekt. Resultaten visar att vissa specifika feltyper i allmänhet dominerar i alla rapporter från alla projekt och att vissa feltyper bedöms som allvarligare än andra. | Børretzen och Conradi REF gjorde en studie av fyra affärskritiska system för att undersöka deras felprofiler. | 42,633,525 | Results and Experiences from an Empirical Study of Fault Reports in Industrial Projects | {'venue': 'PROFES', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 1,780 |
Abstract-Precis utvärdering av nätapparatens energiförbrukning är nödvändig för att korrekt modellera eller simulera effektförbrukningen i distribuerade system. I detta dokument utvärderar vi trafikens påverkan på förbrukningen av elkraft från fyra strömbrytare som finns i hem- och yrkesmiljöer. Först beskriver vi vår mät- och dataanalysmetod och hur våra resultat kan användas för att uppskatta strömförbrukningen när vi känner till den genomsnittliga trafikbandbredden. Sedan presenterar vi mätresultaten för två bostadsomkopplare och två professionella omkopplare. För varje typ presenterar vi regressionsmodeller och parametrar som beskriver deras kvalitet. I likhet med andra arbeten finner vi att för en av strömbrytarena sjunker strömförbrukningen faktiskt för höga trafikbelastningar, medan situationen för de andra är omvänd. Åtgärderna motiverar att energikostnaderna för nätaggregat under de flesta energiförbrukningsutvärderingar kan beräknas som konstanta. Detta arbete ger information om eventuella förändringar av denna kostnad. | Ref mäter strömförbrukningen i strömbrytaren samt analyserar det empiriska resultatet. | 14,003,424 | Energy Consumption of Residential and Professional Switches | {'venue': '2009 International Conference on Computational Science and Engineering', 'journal': '2009 International Conference on Computational Science and Engineering', 'mag_field_of_study': ['Computer Science']} | 1,781 |
Abstract-The skyline av en multidimensionell datauppsättning innehåller den "bästa" tuples enligt någon preferens funktion som är monoton på varje dimension. Även om skyline beräkning har fått stor uppmärksamhet i konventionella databaser, de befintliga algoritmer är inte tillämpliga på strömma program eftersom 1) de antar statiska data som lagras på disken (i stället för att kontinuerligt anlända / förlänga), 2) de fokuserar på "en gång" utförande som returnerar en enda skyline (i motsats till ständigt spåra skyline förändringar), och 3) de syftar till att minska I/O overhead (i motsats till att minimera CPU-kostnad och huvudsakliga minnesförbrukning). Detta papper studerar skyline beräkning i strömmiljöer, där frågebehandling tar hänsyn till endast ett "glidande fönster" som täcker de senaste tuples. Vi föreslår algoritmer som kontinuerligt övervakar inkommande data och underhåller skyline gradvis. Våra tekniker använder flera intressanta egenskaper stream skylines för att förbättra rum / tid effektivitet genom att utesluta data från systemet så tidigt som möjligt (dvs. innan de löper ut). Dessutom analyserar vi de föreslagna lösningarnas asymmetriska prestanda och utvärderar deras effektivitet med omfattande experiment. | Tao och Papadias REF studerade skylineberäkningen i strömmiljöer och utvecklade effektiva tekniker för att förbättra rumseffektiviteten och tidseffektiviteten. | 590,006 | Maintaining sliding window skylines on data streams | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 1,782 |
Abstract-Reinforcement lärande är väl lämpad för första person shooter bot artificiell intelligens eftersom det har potential att skapa olika beteenden utan att implicit koda dem. I detta dokument jämförs tre olika förstärkande inlärningsmetoder för att skapa en bot med ett universellt beteende. Resultat visar att med hjälp av en hierarkisk eller regelbaserad strategi, i kombination med förstärkning lärande, är en lovande lösning för att skapa första person shooter bots som erbjuder en rik och varierat beteende uppsättning. | Till exempel, förstärka lärande användes för att skapa en multi-purpose bot för en FPS (första person shooter) videospel REF. | 14,217,025 | Creating a multi-purpose first person shooter bot with reinforcement learning | {'venue': '2008 IEEE Symposium On Computational Intelligence and Games', 'journal': '2008 IEEE Symposium On Computational Intelligence and Games', 'mag_field_of_study': ['Computer Science']} | 1,783 |
Som en av de allvarligaste typerna av cyberattacker har Advanced Persistent Threats (APT) orsakat stora problem på global nivå. APT hänvisar till en ihållande attack i flera steg i syfte att äventyra systemet och få information från det riktade systemet, som har potential att orsaka betydande skador och betydande ekonomiska förluster. Den exakta upptäckten och förutsägelsen av APT är en pågående utmaning. I detta arbete föreslås ett nytt maskininlärningsbaserat system kallat MLAPT, som kan exakt och snabbt upptäcka och förutsäga APT-attacker på ett systematiskt sätt. MLAPT löper genom tre huvudfaser: (1) Hotdetektion, där åtta metoder har utvecklats för att upptäcka olika tekniker som används under de olika APT-stegen. Genomförandet och valideringen av dessa metoder med verklig trafik är ett viktigt bidrag till den nuvarande forskningen; (2) Varningssamband, där ett korrelationsramverk är utformat för att koppla ihop resultaten av detektionsmetoderna, syftar till att identifiera varningar som kan relateras till och tillhöra ett enda APT-scenario; och (3) Attackförutsägelse, där en maskininlärningsbaserad förutsägelsemodul föreslås baserat på det korrelationsramverk som ska användas av nätverkssäkerhetsgruppen för att fastställa sannolikheten för tidiga varningar för att utveckla en fullständig APT-attack. MLAPT utvärderas experimentellt och det presenterade systemet kan förutsäga APT i sina tidiga steg med en förutsägelse noggrannhet på 84,8 %. | Användningen av ett anomalibaserat maskininlärningssystem, Maskininlärning Advanced Persistent Threat (MLAPT) föreslogs av REF. | 52,138,825 | Detection of advanced persistent threat using machine-learning correlation analysis | {'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']} | 1,784 |
Abstrakt. En dominerande uppsättning D i en graf är en delmängd av dess vertex uppsättning sådan att varje vertex är antingen i D eller har en granne i D. I detta papper är vi intresserade av uppräkning av (integrationsmässigt) minimala dominerande uppsättningar i grafer, som kallas Dom-Enum problem. Det är väl känt att detta problem kan polynomiskt reduceras till Trans-Enum problem i hypergrafer, d.v.s. problemet med att räkna upp alla minimala transversaler i en hypergraf. För det första visar vi att Trans-Enum-problemet kan reduceras polynomiskt till Dom-Enum-problemet. Som en följd finns det en output-polynom tid algoritm för Trans-Enum problem om och endast om det finns en för Dom-Enum problem. För det andra studerar vi problemet Dom-Enum i vissa grafklasser. Vi ger en output-polynom tid algoritm för Dom-Enum problem i split grafer, och införa slutförandet av en graf för att få en output-polynom tid algoritm för Dom-Enum problem i P 6 -fria ackord diagram, en riktig superklass av split grafer. Slutligen undersöker vi komplexiteten i uppräkningen av (inclusion-wise) minimala anslutna dominerande uppsättningar och minimala totala dominerande uppsättningar grafer. Vi visar att det finns en output-polynom tid algoritm för Dom-Enum problem (eller motsvarande Trans-Enum problem) om och endast om det finns en för följande uppräkning problem: minimal total dominerande uppsättningar, minimal total dominerande uppsättningar i split grafer, minimal ansluten dominerande uppsättningar i split grafer, minimal dominerande uppsättningar i co-bipartite grafer. | Dessutom ges en linjär tidsalgoritm för splitgrafer i REF när X, Y är en partition av klickdelen. | 10,614,387 | On the Enumeration of Minimal Dominating Sets and Related Notions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,785 |
Sammanfattning av denna webbsida: En metod för imitation Inlärning är Behavior Cloning, där en robot iakttar en handledare och drar slutsatser om en kontrollpolicy. Ett känt problem med detta "off-policy" tillvägagångssätt är att robotens fel uppstår när man glider bort från handledarens demonstrationer. På policy, tekniker lindra detta genom att iterativt samla korrigerande åtgärder för den nuvarande robotpolicyn. Dessa tekniker kan dock vara tråkiga för mänskliga handledare, lägga till betydande beräkningsbörda, och kan besöka farliga tillstånd under utbildningen. Vi föreslår en icke-politisk strategi som ingjuter buller i tillsynsmyndighetens policy samtidigt som den demonstrerar. Detta tvingar handledaren att visa hur man återhämtar sig från fel. Vi föreslår en ny algoritm, DART (Disturbances for Augmenting Robot Trajectories), som samlar demonstrationer med injicerat buller, och optimerar bullernivån för att uppskatta felet i robotens utbildade policy under datainsamlingen. Vi jämför DART med DAgger och Behavior Cloning i två områden: i simulering med en algoritmisk handledare på MuJoCo uppgifter (Walker, Humanoid, Hopper, Half-Cheetah) och i fysiska experiment med mänskliga handledare utbildning en Toyota HSR robot att utföra grepp i röran. För högdimensionella uppgifter som Humanoid, DART kan vara upp till 3x snabbare i beräkningstiden och bara minskar handledarens kumulativa belöning med 5% under utbildningen, medan DAgger utför riktlinjer som har 80% mindre kumulativ belöning än handledaren. På greppet i skräp uppgift, DART får i genomsnitt en 62% prestanda ökning över Beteende Cloning. | Störningar för Augmenting Robot Trajectories (DART) REF är en nyligen föreslagen beteende kloning metod som lägger buller under demonstrationer för att samla en rikare uppsättning stat-action par för beteende kloning. | 2,043,463 | DART: Noise Injection for Robust Imitation Learning | {'venue': '1st Conference on Robot Learning (CoRL 2017)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,786 |
(Execution Support Language) är ett språk för kodning av genomförandekunskap i inbyggda autonoma agenter. Det liknar i andemeningen RAPs [2] och RPL [7], och RS [6], och dess design beror mycket på dessa system. Till skillnad från sina föregångare siktar ESL på en mer utilitaristisk punkt i designutrymmet. ESL utformades främst för att vara ett kraftfullt och lättanvänt verktyg, inte för att fungera som en representation för automatiserat resonemang eller formell analys (även om ingenting hindrar dess användning för dessa ändamål). ESL består av flera uppsättningar löst kopplade funktioner som kan komponeras på godtyckliga sätt. Det genomförs för närvarande som en uppsättning tillägg till Common Lisp, och används för att bygga den verkställande komponenten i en kontrollarkitektur för en autonom rymdfarkost [ 81. | ESL REF ] är ett utförande språk för autonoma agenter, som genomförs som en förlängning till det gemensamma Lisp programmeringsspråket. | 7,269,555 | ESL: a language for supporting robust plan execution in embedded autonomous agents | {'venue': '1997 IEEE Aerospace Conference', 'journal': '1997 IEEE Aerospace Conference', 'mag_field_of_study': ['Computer Science']} | 1,787 |
K-Means algoritm för klusteranalys är en av de mest inflytelserika och populära datautvinningsmetoderna. Dess enkla parallella formulering är väl lämpad för distribuerade minnessystem med tillförlitliga sammankopplingsnätverk, såsom massivt parallella processorer och kluster av arbetsstationer. I storskaliga geografiskt distribuerade system kan dock den enkla parallella algoritmen göras oanvändbar genom ett enda kommunikationsfel eller hög latens i kommunikationsvägar. Bristen på skalbara och feltoleranta globala kommunikations- och synkroniseringsmetoder i storskaliga system har hindrat antagandet av KMeans-algoritmen för tillämpningar i stora nätverksbaserade system som trådlösa sensornätverk, peer-to-peer-system och mobila ad hoc-nätverk. Detta arbete föreslår en helt distribuerad K-Means algoritm (Epidemic K-Means) som inte kräver global kommunikation och är i sig feltolerant. Den föreslagna distribuerade K-Means-algoritmen ger en klusterlösning som kan approximera lösningen av en idealisk centraliserad algoritm över aggregerade data så nära som önskas. En jämförande prestandaanalys görs mot de senaste provtagningsmetoderna och visar att den föreslagna metoden övervinner begränsningarna i de provtagningsbaserade metoderna för skeva klusterdistributioner. Den experimentella analysen bekräftar att den föreslagna algoritmen är mycket exakt och feltolerant under otillförlitliga nätverksförhållanden (meddelandeförlust och nodfel) och är lämplig för asynkrona nätverk av mycket stor och extrem skala. | Giuseppe m.fl. REF föreslog en fullt distribuerad K-means-algoritm (Epidemic K-means) som inte kräver global kommunikation och som i sig är feltolerant. | 12,879,774 | Fault tolerant decentralised K-Means clustering for asynchronous large-scale networks | {'venue': 'J. Parallel Distributed Comput.', 'journal': 'J. Parallel Distributed Comput.', 'mag_field_of_study': ['Computer Science']} | 1,788 |
Abstract-Vi presenterar en stereobaserad tät kartalgoritm för storskaliga dynamiska stadsmiljöer. I motsats till andra befintliga metoder rekonstruerar vi samtidigt den statiska bakgrunden, de rörliga objekten och de potentiellt rörliga men för närvarande stationära objekten separat, vilket är önskvärt för mobila robotiska uppgifter på hög nivå såsom banplanering i trånga miljöer. Vi använder både exempel-medveten semantisk segmentering och gles scenflöde för att klassificera objekt som antingen bakgrund, flytta, eller potentiellt flytta, vilket säkerställer att systemet kan modellera objekt med potential att övergå från statiska till dynamiska, såsom parkerade bilar. Med tanke på att kameran är uppskattad utifrån visuell odometri rekonstrueras både bakgrunden och de (potentiellt) rörliga föremålen separat genom att man sammanställer de djupkartor som beräknas från stereons ingång. Förutom visuell odometri, sparse scenflöde används också för att uppskatta 3D-rörelser av de upptäckta rörliga objekt, för att rekonstruera dem korrekt. En kartbeskärningsteknik utvecklas vidare för att förbättra återuppbyggnadsnoggrannheten och minska minnesförbrukningen, vilket leder till ökad skalbarhet. Vi utvärderar vårt system noggrant på den välkända KITTI-datauppsättningen. Vårt system är kapabelt att köra på en PC på cirka 2,5 Hz, med den primära flaskhalsen är den instans-medvetna semantiska segmentering, vilket är en begränsning vi hoppas att ta itu med i framtida arbete. Källkoden är tillgänglig från projektets hemsida a. | I REF kombineras djupkartan, det glesa scenflödet och semantiska signaler för att klassificera scenen som antingen statisk bakgrund, rörliga och rörliga föremål. | 46,913,290 | Robust Dense Mapping for Large-Scale Dynamic Environments | {'venue': 'Proceedings of the 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 7510--7517, 21-25 May 2018, Brisbane, QLD, Australia', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,789 |
När ontologins utveckling blir en mer allestädes närvarande och samarbetsprocess blir ontologiversionering och evolution ett viktigt område för ontologiforskning. De många likheterna mellan databas-schema evolution och ontologi evolution kommer att göra det möjligt för oss att bygga vidare på den omfattande forskningen inom schema evolution. Det finns dock också stora skillnader mellan databasscheman och ontologier. Skillnaderna beror på olika användningsparadigm, förekomsten av explicita semantik och olika kunskapsmodeller. Många problem som endast fanns i teorin i databasforskningen kommer i förgrunden som praktiska problem i ontologi evolution. Dessa skillnader har viktiga konsekvenser för utvecklingen av ontologi-evolutionsramar: Den traditionella distinktionen mellan versionering och evolution är inte tillämplig på ontologier. Det finns flera dimensioner längs vilka kompatibilitet mellan versioner måste beaktas. Den uppsättning förändringsåtgärder för ontologier är annorlunda. Vi måste utveckla automatiska tekniker för att hitta likheter och skillnader mellan versioner. Nyckelord: Ontologier; Ontologi evolution; Schema evolution Om vi spårar utvecklingen av ontologi forskning inom datavetenskap, kan vi se att, när fältet växer och mognar, fokus för forskning och de frågor som forskarna behandlar skift också. Framstegen återspeglar naturligtvis övergången från mer teoretiska frågeställningar inom ontologiforskning till de frågor som är förknippade med användningen av ontologier i verkliga, storskaliga tillämpningar. Den aktiva forskningen inom ontologier började med att definiera vad en formell ontologi är och vilka krav en ontologi måste uppfylla (Gruber 1993). Termen ontologi kom att hänvisa till ett brett spektrum av formella framställningar från taxonomier och hierarkiska terminologivokabulärer till detaljerade logiska teorier som beskriver en domän. | I REF analyserar författarna, inom ramen för ontologi-evolution ramar, likheterna mellan databas-schema evolution och ontologi evolution som gör det möjligt att utveckla en omfattande forskning i schema evolution. | 1,849,443 | Ontology Evolution: Not the Same as Schema Evolution | {'venue': 'Knowledge and Information Systems', 'journal': 'Knowledge and Information Systems', 'mag_field_of_study': ['Computer Science']} | 1,790 |
I detta dokument behandlas en markbunden flygbasstation (aerial-BS) med stöd av marknätet där användarens rörlighet beaktas. Användarens rörelse ändrar nätverket dynamiskt vilket kan leda till prestandaförlust. För att undvika denna förlust, garantera en lägsta kvalitet på tjänsten (QoS) och eventuellt öka QoS, lägger vi till en antenn-BS till nätverket. För en rättvis jämförelse mellan det konventionella marknätet och det luftburna BS-stödda nätet håller vi det totala antalet BS identiska i båda näten. Att få bästa prestanda i sådana nätverk beror i hög grad på den optimala placeringen av antennen-BS. I detta syfte krävs en algoritm som kan förlita sig på allmänna och realistiska antaganden och som kan avgöra vart man ska gå baserat på tidigare erfarenheter. Det föreslagna tillvägagångssättet för detta mål bygger på en rabatterad belöningsförstärkningsutbildning som kallas Q-learning. Simuleringsresultat visar att denna metod ger en effektiv placeringsstrategi som ökar QoS för trådlösa nätverk när det behövs och lovar att hitta den optimala positionen för antennen-BS i diskreta miljöer. | I REF anses Q-learning-baserade flygbasstationer (aerial-BS)-stödda markbundna nät utgöra en effektiv placeringsstrategi som ökar QoS för trådlösa nät. | 3,282,030 | Efficient 3D aerial base station placement considering users mobility by reinforcement learning | {'venue': '2018 IEEE Wireless Communications and Networking Conference (WCNC)', 'journal': '2018 IEEE Wireless Communications and Networking Conference (WCNC)', 'mag_field_of_study': ['Computer Science']} | 1,791 |
Vi föreslår en ny jämviktsförstärkande metod ihop med en förlust härledd från Wasserstein avstånd för utbildning auto-encoder baserad Generative Adversarial Networks. Denna metod balanserar generatorn och discriminatorn under träningen. Dessutom ger den ett nytt ungefärligt konvergensmått, snabb och stabil utbildning och hög visuell kvalitet. Vi har också ett sätt att kontrollera avvägningen mellan bildmångfald och visuell kvalitet. Vi fokuserar på bildgenereringsuppgiften och sätter en ny milstolpe i visuell kvalitet, även vid högre upplösning. Detta uppnås med hjälp av en relativt enkel modellarkitektur och ett standardutbildningsförfarande. | Berthelot m.fl. REF använder också en autoencoder som en discriminator och utvecklade en jämviktsförstärkande metod, parat med en förlust härledd från Wasserstein avstånd. | 9,957,731 | BEGAN: Boundary Equilibrium Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 1,792 |
Nyckelord: Airport Logistics Check-in Counter allocation Problem Optimization Models Simulation Detta dokument presenterar en ny metod för att optimera problemet Airport Check-in Counter Allocation. Metoden kombinerar optimering, simulering och intilliggande resursplanering och syftar till att bestämma optimalt antal, plats och schema för incheckningsdiskar att öppna för avgående flygningar, så att driftskostnader minimeras och en viss servicenivå säkerställs. Metoden består av tre steg. Steg 1 använder optimeringsmodeller för att bestämma det optimala antalet skrivbord. Steg 2 använder simulering för att bedöma om det första stegets resultat uppfyller den övergripande servicenivån. Steg 3 använder en optimeringsmodell för att genomdriva den angränsande begränsningen. Papperet fokuserar sedan på steg 1, där vi presenterar två nya optimeringsmodeller för gemensamma och dedikerade incheckningssystem som inkluderar en servicenivåbegränsning. Slutligen tillämpas dessa modeller på en fallstudie med faktiska data. Vi drar slutsatsen att den bästa tidsintervalllängden bör vara 30 minuter eller mindre och som förväntat kräver det särskilda systemet i allmänhet fler skrivbord än det gemensamma systemet. Dessutom visar resultaten att modellerna är korrekta för att uppnå kompromissen mellan driftskostnaderna och en viss servicenivå. | Araujo och Repolho REF presenterar en ny metod för att optimera fördelningen av incheckningsdiskar för att upprätthålla en servicenivå och samtidigt minska driftskostnaderna. | 10,994,078 | Optimizing the Airport Check-In Counter Allocation Problem | {'venue': None, 'journal': 'Journal of Transport Literature', 'mag_field_of_study': ['Engineering']} | 1,793 |
Den rika uppsättningen interaktioner mellan individer i samhället [1] [2] [3] [4] [5] [6] [6] [7] resulterar i komplex samhällsstruktur, fånga högt anslutna kretsar av vänner, familjer eller yrkesgrupper i ett socialt nätverk 3, [7] [8] [9] [10]. Tack vare frekventa förändringar i individers aktivitets- och kommunikationsmönster är det tillhörande sociala nätverket och kommunikationsnätet föremål för ständig utveckling 7, [11] [12] [13] [14] [15] [16]. Vår kunskap om de mekanismer som styr den underliggande samhällsdynamiken är begränsad, men är nödvändig för en djupare förståelse av samhällets utveckling och självoptimering som helhet [17] [18] [19] [20] [21] [22]. Vi har utvecklat en algoritm baserad på clique percolation 23, 24 som gör det möjligt för oss att undersöka tidsberoendet av överlappande samhällen i stor skala, och därmed avslöja grundläggande relationer som kännetecknar samhällsutvecklingen. Vårt fokus ligger på nätverk som fångar upp samarbetet mellan forskare och samtalen mellan mobiltelefonanvändare. Vi finner att stora grupper består längre om de är i stånd att dynamiskt förändra sitt medlemskap, vilket tyder på att en förmåga att ändra gruppens sammansättning resulterar i bättre anpassningsförmåga. Små gruppers beteende visar den motsatta tendensen - villkoret för stabilitet är att deras sammansättning förblir oförändrad. Vi visar också att kunskap om medlemmarnas tidsengagemang i ett visst samhälle kan användas för att uppskatta samhällets livstid. Dessa resultat ger insikt i de grundläggande skillnaderna mellan små gruppers dynamik och stora institutioner. De datamängder vi anser är (1) den månatliga listan över artiklar i Cornell University Library e-print kondenserade materia (cond-mat) arkiv som sträcker sig 142 månader, med över 30 000 författare 25, och (2) rekordet av telefonsamtal mellan kunderna i ett mobiltelefonföretag som sträcker sig 52 veckor (ackumuleras över två veckor långa perioder), och innehåller kommunikationsmönster för över 4 miljoner användare. Båda typerna av samarbetsevenemang (en ny artikel eller ett telefonsamtal) dokumenterar förekomsten av social interaktion mellan de inblandade individerna (nodes), och kan representeras som (tidsberoende) länkar. Extrahering av de föränderliga länkvikterna från de primära uppgifterna beskrivs i kompletterande information. På bild. 1a, b vi visar den lokala strukturen vid en given tidpunkt steg i de två nätverken i närheten av en slumpmässigt vald individ (markerad av en röd ram). De samhällen (sociala grupper som representeras av tätare sammankopplade delar inom ett nätverk av sociala länkar) är färgkodade, så att svarta noder/kanter inte tillhör någon gemenskap, och de som samtidigt tillhör två eller flera samhällen visas i rött. De två nätverken har ganska olika lokal struktur: samverkansnätverket av forskare framträder som en en-stegs projektion av tvåpartsgrafen mellan författare och papper, så den är ganska tät och överlappningen mellan samhällen är mycket betydande. I telefonsamtalsnätet är däremot samhällena mindre sammankopplade och är ofta åtskilda av en eller flera knutpunkter/kanter inom gemenskapen. Medan telefonskivan fångar kommunikationen mellan två personer, tilldelas alla individer som bidrar till ett papper en helt ansluten klick. Som ett resultat av detta domineras telefondata av enskilda länkar, medan samförfattardata har många täta, starkt anslutna stadsdelar. Dessutom, länkarna i telefonnätet motsvarar omedelbar kommunikation händelser, fånga en relation som det händer. Däremot beaktade man uppgifterna från medförfattaren. a, Samförfattarnätverket. Figuren visar den lokala samhällsstrukturen vid en given tidpunkt steg i närheten av en slumpmässigt vald nod. B, Som en men för telefon-samtal nätverket. c, De fyllda svarta symbolerna motsvarar den genomsnittliga storleken på den största undergruppen av medlemmar med samma zip-kod, AEn verkliga ae, i telefonsamtalsgemenskaperna dividerat med samma mängd som finns i slumpmässiga uppsättningar, AEn rand ae, som en funktion av gemenskapens storlek, s. På samma sätt visar de öppna symbolerna den genomsnittliga storleken på den största undergruppen av samhällsmedlemmar med en ålder som faller i ett treårigt tidsfönster, dividerat med samma mängd i slumpmässiga uppsättningar. Felraderna i båda fallen motsvarar AEn real ae/ (AEn rand ae 1 s rand ) och AEn real ae/(AEn rand ae 2 s rand ), där s rand är standardavvikelsen när det gäller slumpmässiga uppsättningar. d, AEn verkliga ae/s som en funktion av s, för både zip-koden (fyllda svarta symboler) och ålder (öppna symboler). e, Möjliga händelser i samhällsutvecklingen. f, Identifiering av evolverande samhällen. Länkarna vid t (blå) och länkarna vid t 1 1 (gul) slås samman till en gemensam graf (grön). Varje CPM gemenskap vid t eller t 1 1 är en del av en CPM gemenskap i den sammanfogade grafen, så dessa kan användas för att matcha de två uppsättningar av samhällen. | Palla m.fl. REF studerade den dynamiska utvecklingen av det kooperativa nätverket av forskare och fann att om det sker stora förändringar i samhället är livscykeln för dessa förändrade samhällen längre. | 4,420,074 | Quantifying social group evolution | {'venue': 'Nature', 'journal': 'Nature', 'mag_field_of_study': ['Medicine', 'Biology', 'Mathematics', 'Physics']} | 1,794 |
Vi anser att problemet med att förvärva relevans bedömningar för informationssökning (IR) testsamlingar genom crowdsourcing när det inte finns några verkligt relevanta etiketter tillgängliga. Vi samlar in flera, möjligen bullriga, relevanta etiketter per dokument från arbetstagare med okänd märkningsnoggrannhet. Vi använder dessa etiketter för att dra slutsatsen att dokumentet är relevant baserat på två metoder. Den första metoden är den allmänt använda majoritetsomröstningen (MV) som avgör dokumentets relevans baserat på den etikett som fick flest röster och behandlar alla arbetstagare lika. Den andra är en probabilistisk modell som samtidigt uppskattar dokumentets relevans och arbetarnas noggrannhet med hjälp av förväntan maximisering (EM). Vi kör simuleringar och utför experiment med crowdsourced relevansetiketter från INEX 2010 Book Search track för att undersöka riktigheten och robustheten i relevansbedömningarna för de bullriga etiketterna. Vi observerar effekten av de härledda relevans bedömningarna på rangordningen av söksystem. Våra experimentella resultat visar att EM-metoden överträffar MV-metoden i relevansbedömningarnas och IR-systemens noggrannhet. Prestandaförbättringarna är särskilt märkbara när antalet etiketter per dokument är litet och etiketterna är av varierande kvalitet. | Hosseini m.fl. använde EM-ramverket för att lösa problemet med att förvärva relevans bedömningar för Book Search uppgifter genom crowdsourcing när inga verkliga relevans etiketter finns tillgängliga REF. | 11,521,134 | On aggregating labels from multiple crowd workers to infer relevance of documents | {'venue': 'ECIR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,795 |
Vi förbättrar automatisk korrigering av grammatiska, ortografiska, och collocation fel i text med hjälp av en flerlagers convolutional encoder-decoder neurala nätverk. Nätverket initieras med inbäddningar som använder sig av karaktär Ngram information för att bättre passa denna uppgift. Vid utvärdering på gemensamma referenstestdatamängder (CoNLL-2014 och JF-LEG) överträffar vår modell avsevärt alla tidigare neurala metoder på denna uppgift samt starka statistiska maskinöversättningsbaserade system med neurala och uppgiftsspecifika funktioner utbildade på samma data. Vår analys visar överlägsenheten av konvolutionella neurala nätverk över återkommande neurala nätverk såsom långsiktiga korttidsminne (LSTM) nätverk för att fånga det lokala sammanhanget via uppmärksamhet, och därmed förbättra täckningen för att korrigera grammatiska fel. Genom att gilla flera modeller, och införliva en N-gram språkmodell och redigera funktioner via omscoring, blir vår nya metod den första neurala metoden för att överträffa den nuvarande state-of-the-art statistiska maskinen översättningsbaserad metod, både i termer av grammatikalitet och fluens. | Chollampatt och Ng använder en flerlagers convolutional encoder-decoder neurala nätverk som överträffar den nuvarande state-of-the-art statistiska maskinen översättningsbaserad metod REF ). | 19,236,015 | A Multilayer Convolutional Encoder-Decoder Neural Network for Grammatical Error Correction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 1,796 |
Abstrakt. Migrering av äldre programvara till tjänstebaserade system är ett allt viktigare problemområde. Hittills har många strategier för migration inom SOA föreslagits inom både industrin och den akademiska världen. Det finns dock stora skillnader mellan de strategier för migration mellan statligt ägda företag som definieras i den akademiska världen och de som har utvecklats inom industrin. Denna skillnad pekar på en potentiell klyfta mellan teori och praktik. För att överbrygga denna klyfta genomförde vi en branschintervjuundersökning i sju ledande SOA-lösningsföretag. Resultaten har analyserats med avseende på migrationsverksamhet, tillgängliga kunskapstillgångar och migrationsprocessen. Dessutom har industriella tillvägagångssätt jämförts med akademiska, vilket innebär att man diskuterar skillnader och lovande inriktningar för industrirelevant forskning. Som ett resultat fann vi att alla företag i själva verket konvergerar till samma, en, gemensamma SOA migrationsstrategi. Detta tyder på att företagen med erfarenhet mognar mot ett liknande tillvägagångssätt när det gäller migration till sjöss. | En annan undersökning som gjorts av REF tillsammans med branschföreträdare som deltagare om SOA migration belyser den potentiella klyftan mellan teori och praktik av SOA migration. | 9,979,089 | A Survey of SOA Migration in Industry | {'venue': 'ICSOC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,797 |
Pareto Local Search (PLS) är en enkel och effektiv lokal sökmetod för att hantera multi-objektive combinatorial optimeringsproblem. Det är också en viktig del av många toppmoderna algoritmer för sådana problem. PLS kan dock inte vara särskilt effektivt när det avslutas före färdigställandet. Med andra ord, PLS har dåligt beteende när som helst. I den här artikeln studerar vi vilken effekt olika PLS-algoritmiska komponenter har på dess beteende när som helst. Vi visar att när som helst beteendet hos PLS kan förbättras avsevärt genom att använda alternativa algoritmiska komponenter. Vi föreslår också Dynagrid, en dynamisk diskretisering av det objektiva utrymmet som hjälper PLS att konvergera snabbare till en bra approximation av Paretofronten och fortsätta att förbättra den om mer tid finns tillgänglig. Vi gör en detaljerad empirisk utvärdering av de nya förslagen om det bi-objektiva reseförsäljarproblemet och det bi-objektiva andrahandsproblemet. Våra resultat visar att de nya PLS varianterna inte bara har betydligt bättre när som helst beteende än den ursprungliga PLS, men också kan få bättre resultat för längre beräkningstid eller efter avslutad. | Konvergensen mellan den ursprungliga PLS-algoritmen undersöktes i REF där man också föreslog en teknik som diskretiserar det objektiva utrymmet dynamiskt. | 1,722,478 | Anytime Pareto local search | {'venue': 'Eur. J. Oper. Res.', 'journal': 'Eur. J. Oper. Res.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,798 |
Vi studerar problemet med att fördela flera resurser till agenter med heterogena krav. Tekniska framsteg som cloud computing och datacenter ger en ny impuls för att undersöka detta problem under antagandet att agenter kräver resurser i fasta proportioner, känd i ekonomi som Leontief preferenser. I en nyligen publicerad tidning, Ghodsi et al. [2011] införde den dominerande mekanismen för resursrättvisa (DRF), som visade sig ha mycket önskvärda teoretiska egenskaper enligt Leontiefs preferenser. Vi utökar deras resultat i tre riktningar. För det första visar vi att DRF generaliserar till mer uttrycksfulla inställningar och utnyttjar en ny teknisk ram för att formellt utöka sina garantier. För det andra studerar vi relationen mellan social välfärd och egenskaper som sannfärdighet; DRF presterar dåligt i termer av social välfärd, men vi visar att detta är en oundviklig brist som delas av varje mekanism som uppfyller en av tre grundläggande egenskaper. För det tredje, och viktigast av allt, studerar vi en realistisk miljö som inbegriper odelbarheter. Vi kartlägger gränserna för det möjliga i denna miljö, bidrar med en ny avslappnad uppfattning om rättvisa och ger både möjligheter och omöjliga resultat. | REF bedömde DRF i termer av den resulterande effektiviteten, vilket visar att det fungerar dåligt. | 53,224,574 | Beyond dominant resource fairness: extensions, limitations, and indivisibilities | {'venue': "EC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,799 |
Vi anser paritetsspel spelas på särskilda pushdown grafer, nämligen de som genereras av en-counter processer. För paritetsspel på pushdown grafer, är det känt från [22] att avgöra vinnaren är ett ExpTime-komplett problem. En viktig följd av detta resultat är att μ-calculus modell kontroll problem för pushdown processer är Exp-Time-komplett. Eftersom one-counter processer är speciella fall av pushdown processer, det följer att avgöra vinnaren i ett paritetsspel spelas på övergångskurvan för en en-counter process kan uppnås i Ex-pTime. Beviset för att ExpTime-hardness är lägre än [22] kan dock inte anpassas till detta fall. Därför är en naturlig fråga om ExpTime övre gräns kan förbättras i detta speciella fall. I detta dokument anpassar vi tekniker från [11, 4] och ger en PSpace övre gräns och en DP-hård nedre gräns för detta problem. Vi ger också två viktiga konsekvenser av detta resultat. För det första förbättrar vi den bästa övre gränsen känd för modellkontroll en-counter processer mot μ-kalculus. För det andra visar vi hur dessa spel kan användas för att lösa pushdown spel med vinnande villkor som är booleska kombinationer av en paritet villkor på kontrolltillstånd med villkor på stacken höjd. med beaktande av Fördraget om upprättandet av Euro peiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, med beaktande av Fördraget om upprättandet av Europeiska unionen, med beaktande av Fördraget om upprättandet av Europeiska gemenskapen, särskilt artikel 5 i detta, | I REF visades det att det är i PSpace att bestämma vinnaren i one-counter paritetsspel. | 52,800,475 | Parity games played on transition graphs of one-counter processes | {'venue': 'FoSSaCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,800 |
Vi föreslår ett nytt system för detektering av röstaktivitet (VAD) med differentialentropi vid varje frekvensenhet med spektraluppskattningar av tidigare och nuvarande överlappande talramar. Här erhålls effektspektralberäkningen genom att använda Bartlett-Welch-metoden. Senare lägger vi till entropier över frekvensbehållare och betecknar detta som frekvensdomänen långsiktig differentialentropi (FLDE). Långsiktigt medelvärde förbättrar VDD-prestandan under låg signal-brus-förhållande (SNR). Vi utvärderar resultatet av det föreslagna FLDE-systemet, med beaktande av 12 typer av buller och 5 olika SNR som artificiellt läggs till talprover från SWITCHBOARD corpus. Vi presenterar VDD-prestanda för FLDE och jämför med befintliga VDD-algoritmer, såsom ITU-T G.729B, sannolikhetsförhållandetest, långsiktig signalvariabilitet och långsiktig spektral flathet mäter baserade algoritmer. Slutligen visar vi att vår FLDE-baserade VAD presterar med bästa genomsnittliga noggrannhet och tal hit-rate bland VD algoritmer som övervägs för utvärdering. | Nyligen föreslogs ett nytt system för att upptäcka röstaktivitet (VAD) med differentialentropi vid varje frekvensenhet för spektraluppskattningar av tidigare och nuvarande överlappande talramar. | 52,190,200 | Robust Voice Activity Detection Using Frequency Domain Long-Term Differential Entropy | {'venue': 'INTERSPEECH', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,801 |
I det här dokumentet undersöker vi hur vi kan lägga till pekande inmatningsmöjligheter till mycket små skärmenheter. Vid första anblicken, pekskärmar verkar tillåta särskild kompaktitet, eftersom de integrerar ingång och skärm i samma fysiska utrymme. Det motsatta är dock sant, eftersom användarens fingrar oclude innehåll och förhindra precision. Vi hävdar att nyckeln till beröringsaktiverande mycket små enheter är att använda beröring på enhetens baksida. För att studera detta har vi skapat en 2,4-tums prototypenhet; vi simulerar skärmar som är mindre än så genom att maskera skärmen. Vi presenterar en användarstudie där deltagarna slutfört en pekande uppgift framgångsrikt över visningsstorlekar när de använder ett back-of-enhetsgränssnitt. Den pekskärmsbaserade styrkonditionen (förstärkt med skifttekniken), däremot, misslyckades för skärmdiagonaler under 1 tum. Vi presenterar fyra formfaktor koncept baserade på back-of-device interaktion och ger design riktlinjer extraherade från en andra användarstudie. | REF visar effektiviteten hos en pekande inmatningsmetod för mycket små enheter (ned till 1" displaystorlek), där de använder en pekskärm på baksidan av en enhet för att hantera ocklusion. | 1,788,482 | Back-of-device interaction allows creating very small touch devices | {'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,802 |
3D-strålformning är en lovande metod för störningssamordning i cellulära nätverk som ger betydande förbättringar jämfört med konventionella 2D-strålformningstekniker. I detta dokument undersöks problemet med konstruktion av gemensam strålformning och anpassning av lutningsvinkeln i BS-antennmatrisen för att maximera energieffektiviteten (EE) i nedlänken till flercelliga samordnade cellulära nätverk. En iterativ algoritm baserad på delprogrammeringsmetod introduceras för att lösa det resulterande icke-konvexa optimeringsproblemet. I varje iteration är användarna grupperade baserat på deras höjdvinkel. Därefter optimeras lutningsvinkeln genom en minskad komplexitet girig sökning för att hitta den bästa lutningsvinkeln för en given placering av användarna. Numeriska resultat visar att den föreslagna algoritmen uppnår högre EE jämfört med 2D strålformningstekniker. | I REF undersökte författaren först den gemensamma strålformningen och tiltvinkeloptimering som maximerar den totala energieffektiviteten i flercelliga nät för nedlänköverföring. | 5,134,727 | Joint Tilt Angle Adaptation and Beamforming in Multicell Multiuser Cellular Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,803 |
Förutsäga den framtida hälsoinformationen för patienter från den historiska elektroniska hälsojournalen (EHR) är en kärnforskningsuppgift i utvecklingen av personlig hälso- och sjukvård. Patient EHR-data består av sekvenser av besök över tid, där varje besök innehåller flera medicinska koder, inklusive diagnos, medicinering och procedurkoder. De viktigaste utmaningarna för denna uppgift är att modellera tids- och högdimensionella EHR-data och tolka prognosresultaten. Befintligt arbete löser detta problem genom att använda återkommande neurala nätverk (RNN) för att modellera EHR data och använda enkel ention mekanism för att tolka resultaten. RNN-baserade metoder är dock beroende av problemet att RNN:s prestanda sjunker när sekvensernas längd är stor, och förhållandet mellan efterföljande besök ignoreras av nuvarande RNN-baserade metoder. För att ta itu med dessa frågor föreslår vi Dimole, en end-to-end, enkel och robust modell för att förutsäga patienternas framtida hälsoinformation. Dipole använder dubbelriktade återkommande neurala nätverk för att komma ihåg all information om både tidigare besök och framtida besök, och det introducerar tre ention mekanismer för att mäta förhållandet mellan olika besök för förutsägelsen. Med hjälp av entionsmekanismerna kan Dipole tolka förutsägelsens resultat på ett eektivt sätt. Dipole gör det också möjligt för oss att tolka de inlärda medicinska kodrepresentationer som behandlas positivt av medicinska experter. Experimentella resultat på två verkliga EHR-datauppsättningar visar att den föreslagna Dipole kan avsevärt förbättra prediktionsnoggrannheten jämfört med de senaste diagnosprognoserna och ge kliniskt meningsfull tolkning. | REF föreslår Dimole som använder dubbelriktade återkommande neurala nätverk för att komma ihåg all information från både det förflutna och de framtida besöken och introducerar tre uppmärksamhetsmekanismer för att beräkna vikter för varje besök. | 10,361,189 | Dipole: Diagnosis Prediction in Healthcare via Attention-based Bidirectional Recurrent Neural Networks | {'venue': "KDD '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,804 |
Det är svårt att till fullo bedöma kvaliteten på programvaran internt, utanför den faktiska tid och det sammanhang i vilket den kommer att genomföras efter installation. Som ett resultat, Det är vanligt för programvara att manifestera fältfel, misslyckanden som uppstår på användare maskiner på grund av oprövat beteende. Fältfel är vanligtvis svåra att återskapa och undersöka på utvecklarplattformar, och befintliga tekniker baserade på kraschrapportering ger endast begränsat stöd för denna uppgift. I detta dokument presenterar vi en teknik för inspelning, återgivning och minimering av misslyckade utföranden som möjliggör och stöder intern felsökning av fältfel. Vi presenterar också ett verktyg som implementerar vår teknik och en empirisk studie som utvärderar tekniken på en allmänt använd e-postklient. 29:e internationella konferensen om programvaruteknik (ICSE'07) 0-7695-2828-7/07 $20,00 | Klausul och Orso REF presenterar en teknik för inspelning, minimering och uppspelning av misslyckade programvaruutföranden. | 11,073,660 | A Technique for Enabling and Supporting Debugging of Field Failures | {'venue': "29th International Conference on Software Engineering (ICSE'07)", 'journal': "29th International Conference on Software Engineering (ICSE'07)", 'mag_field_of_study': ['Computer Science']} | 1,805 |
Vi föreslår en ny metod för problem med beräkning av fri energi och yttryck för olika statistiska mekanik modeller på en lattice Z d. Vår metod är baserad på att representera fri energi och yttryck i termer av vissa marginella sannolikheter i en lämpligt modifierad sublattice av Z d. Sedan nyligen deterministiska algoritmer för beräkning marginell sannolikheter används för att få numeriska uppskattningar av de kvantiteter av intresse. Metoden fungerar under antagandet av Strong Spatial Mixing (SSP), som är en form av ett korrelationsförfall. Vi illustrerar vår metod för hård- och monomer-dimer modeller, och förbättra flera tidigare uppskattningar. Till exempel visar vi att exponenten av monomer-dimer beläggningar av Z 3 tillhör intervallet [0,78595, 0,78599], förbättra bästa tidigare kända uppskattning av (cirka) [0,7850, 0,7862] som erhållits i [FP05], [FKLM]. Dessutom visar vi att med tanke på ett mål additivt fel > 0, är den beräkningskraft som vår metod för dessa två modeller är (1/ ) O(1) både för fri energi och yttryck. Däremot kräver tidigare metoder, såsom överföringsmatrismetoden, exp`(1/ ) O(1) 'c omputation ansträngning. | I REF används sekventiella hålrumsmetoder för att beräkna fri energi och yttryck. | 53,517,249 | Sequential cavity method for computing free energy and surface pressure | {'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Materials Science']} | 1,806 |
Detta dokument beskriver vårt deltagande i SemEval-2015 Uppgift 12, och åsiktsbrytningssystemet sentiue. Den allmänna tanken är att systemen måste bestämma polariteten i den känsla som uttrycks om en viss aspekt av en målenhet. För slot 1, enhet och attribut kategori detektion, vårt system tillämpar en övervakad maskininlärning klassificerare, för varje etikett, följt av ett urval baserat på sannolikheten för enheten / attribut par, på den domänen. Detektionen av måluttrycket, för slot 2, uppnås genom att använda en katalog med kända mål för varje enhetstyp, kompletterad med namngiven enhetsigenkänning. I yttrandet känsla slot använde vi en 3 klass polaritet klassificerare, med BoW, lemmas, bigrams efter verb, närvaro av polariserade termer, och interpunktion baserade funktioner. Våra resultat för slot 1 bedömdes med precision mellan 57% och 63%, och de varierade mellan 42% och 47%. I känslopolaritet var Sendiues resultatnoggrannhet ungefär 79%, och nådde den bästa poängen i 2 av de 3 domänerna. | I REF beskrivs det åsiktsutvinningssystem som kallas "sentitue", som gör anspråk på att fastställa polariteten i den känsla som uttrycks om en viss aspekt av en målenhet. | 5,763,602 | Sentiue: Target and Aspect based Sentiment Analysis in SemEval-2015 Task 12 | {'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,807 |
Abstract-Omatchade beräkningar och lagringsprestanda i nya HPC-system har lett till en uppsjö av I/O-optimeringar som sträcker sig från applikationssidan kollektiv I/O till nätverk och disknivå begäran schemaläggning på filsystemets sida. När vi hanterar allt större maskiner blir den störning som skapas av flera applikationer som samtidigt får tillgång till ett delat parallellt filsystem ett stort problem. Interferens bryter ofta en applikation I/O optimeringar, dramatiskt förnedrande applikation I/O prestanda och, som ett resultat, sänka maskinens bred effektivitet. Detta dokument är inriktat på CALCioM, en ram som syftar till att minska I/O-störningar genom ett dynamiskt urval av lämpliga planeringsstrategier. CALCioM gör det möjligt för flera applikationer som körs på en superdator att kommunicera och samordna sin I/O-strategi för att undvika att störa varandra. I detta arbete undersöker vi fyra I/O-strategier som kan rymmas i detta ramverk: serialisering, avbrytande, störande och samordning. Experiment på Argonnes BG/P Surveyor-maskin och på flera kluster av den franska Grid'5000 visar hur CALCioM kan användas för att effektivt och transparent förbättra schemaläggningsstrategin mellan två annars störande applikationer, med tanke på specificerade mått för maskinens breda effektivitet. | Arbetet i REF analyserar I/O-frågan mellan två applikationer och undersöker användningen av programsamordning i drift för att undvika trängsel. | 1,109,559 | CALCioM: Mitigating I/O Interference in HPC Systems through Cross-Application Coordination | {'venue': '2014 IEEE 28th International Parallel and Distributed Processing Symposium', 'journal': '2014 IEEE 28th International Parallel and Distributed Processing Symposium', 'mag_field_of_study': ['Computer Science']} | 1,808 |
Abstrakt. Fallbaserade resonemang (CBR) system löser nya problem genom att hämta lagrade tidigare fall, och anpassa sina lösningar för att passa nya omständigheter. Traditionellt sett drar CBR-systemen sina fall från en enda lokal fallbas som är anpassad till deras uppgift. När ett systems egna fall är begränsade kan det dock vara fördelaktigt att komplettera den lokala fallbasen med fall som hämtats från externa fallbaser för relaterade uppgifter. Effektiv användning av externa fallbaser kräver strategier för flerfaldigt resonemang (MCBR): (1) för att avgöra när problem ska skickas till en extern fallbas, och (2) för att utföra anpassning mellan fallbaser för att kompensera för skillnader i de uppgifter och miljöer som varje fallbas återspeglar. I detta dokument presenteras metoder för automatisk inställning av MCBR-system genom att välja effektiva leveranskriterier och anpassningsstrategier för flera fall. Metoderna kräver ingen förkunskaper om uppgiften och domänen: de utför tester på en första uppsättning problem och använder resultaten för att välja strategier som återspeglar egenskaperna hos lokala och externa fall-baser. Vi presenterar experimentella illustrationer av utförandet av stämmetoder för en numerisk förutsägelse uppgift, och visar att en liten provuppsättning kan vara tillräcklig för att göra högkvalitativa val av leverans och kors-case-bas anpassningsstrategier. | Arbetet med REF fortsätter med att undersöka olika strategier för att genomföra MCBR-teknik och föreslår särskilt metoder för automatisk inställning av MCBR-system genom att välja effektiva leveranskriterier och anpassningsstrategier mellan olika fall. | 13,158,471 | Automatically Selecting Strategies for Multi-Case-Base Reasoning | {'venue': 'Proceedings of ECCBR-2002, 204–219', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,809 |
Online-applikationer är sårbara för stöld av känslig information eftersom motståndare kan utnyttja programvara buggar för att få tillgång till privata data, och eftersom nyfikna eller skadliga administratörer kan fånga och läcka data. CryptDB är ett system som ger praktisk och bevisbar sekretess inför dessa attacker för program som stöds av SQL-databaser. Det fungerar genom att utföra SQL-frågor över krypterad data med hjälp av en samling av effektiva SQL-medvetna krypteringssystem. CryptDB kan också kedja krypteringsnycklar till användarlösenord, så att ett dataobjekt kan dekrypteras endast genom att använda lösenordet för en av användarna med tillgång till dessa data. Som ett resultat, en databasadministratör får aldrig tillgång till dekrypterade data, och även om alla servrar äventyras, en motståndare kan inte dekryptera data för någon användare som inte är inloggad. En analys av ett spår av 126 miljoner SQL-frågor från en produktion MySQL-server visar att CryptDB kan stödja operationer över krypterade data för 99,5% av 128,840 kolumner som ses i spåret. Vår utvärdering visar att CryptDB har låga omkostnader, vilket minskar genomströmningen med 14,5% för phpBB, ett webbforum program, och med 26% för frågor från TPC-C, jämfört med omodifierade MySQL. Kedja krypteringsnycklar till användarlösenord kräver 11-13 unika schemaanteckningar för att säkra mer än 20 känsliga fält och 2-7 rader av källkodsändringar för tre fleranvändarwebbapplikationer. | Popa m.fl. REF föreslog körning av frågor över krypterade data. | 6,323,154 | CryptDB: protecting confidentiality with encrypted query processing | {'venue': "SOSP '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,810 |
Abstrakt. Lokala bildfunktioner eller räntepunkter ger kompakta och abstrakta representationer av mönster i en bild. I detta dokument utvidgar vi begreppet rumsliga intressepunkter till den spatio-temporala domänen och visar hur de resulterande funktionerna ofta återspeglar intressanta händelser som kan användas för en kompakt representation av videodata samt för tolkning av spatio-temporala händelser. För att upptäcka spatio-temporala händelser bygger vi på idén om Harris och Förstners intressepunkter och upptäcker lokala strukturer i rumstid där bildvärdena har betydande lokala variationer i både rum och tid. Vi uppskattar den spatio-temporala omfattningen av de upptäckta händelserna genom att maximera en normaliserad spatio-temporal Laplacian operatör över rumsliga och temporala skalor. För att representera de upptäckta händelserna beräknar vi sedan lokala, spatio-temporala, skalinvarianta N-jets och klassificerar varje händelse med avseende på dess jetdeskriptor. För problemet med mänsklig rörelseanalys illustrerar vi hur en videorepresentation i termer av lokala rum-tid funktioner gör det möjligt att upptäcka vandrande människor i scener med ocklusioner och dynamiska belamrade bakgrunder. | Lokal funktionsrepresentation framträder som ett resultat av den spatiotemporala intressepunktsdetektor som Laptev et al föreslagit. Hoppa över det. | 3,148,797 | On Space-Time Interest Points | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 1,811 |
Articles 290 till VOL.15 NO.4 till APRIL 2018 till nAture methods Även artificiella neurala nätverk är kraftfulla klassificerare, deras inre strukturer är svåra att tolka. Inom life sciences ger omfattande kunskap inom cellbiologi en möjlighet att designa synliga neurala nätverk (Vnns) som kopplar modellens inre funktioner till verkliga system. Här utvecklar vi dcell, en Vnn inbäddad i den hierarkiska strukturen av 2 526 delsystem som består av en eukaryotisk cell (http://d-cell.ucsd.edu/). Utbildad på flera miljoner genotyper simulerar dcell celltillväxt nästan lika exakt som laboratorieobservationer. Under simuleringen inducerar genotyper mönster av delsystemsaktiviteter, vilket gör det möjligt att i silico-undersökningar av de molekylära mekanismer som ligger till grund för genotyp-fenotypbindningar. Dessa mekanismer kan valideras, och många är oväntade; vissa styrs av boolesk logik. Totalt fångas 80 % av betydelsen för tillväxtprognoser av 484 delsystem (21 %), vilket återspeglar uppkomsten av en komplex fenotyp. dcell ger en grund för avkodning av genetiken i sjukdom, läkemedelsresistens och syntetiskt liv. Djupt lärande har revolutionerat området artificiell intelligens genom att göra det möjligt för maskiner att utföra mänskliga aktiviteter som att se, lyssna och tala 1-6. Sådana system är konstruerade från många skikt, "djup", artificiella neurala nätverk (ANNs) inspirerade av faktiska neurala nätverk i hjärnan och hur de bearbetar mönster. Funktionen av ANN skapas under en träningsfas, där modellen lär sig att fånga så exakt som möjligt rätt svar, eller utgång, som bör returneras för varje exempel inmatningsmönster. På så sätt lär sig maskinseendet att känna igen föremål som hundar, människor och ansikten, och maskinspelare lära sig att skilja bra från dåliga rörelser i partier som schack och Go 7. I moderna ANN-arkitekturer är kopplingarna mellan nervceller och deras styrkor föremål för omfattande matematisk optimering, vilket leder till tätt insnärjda nätverksstrukturer som varken är bundna till ett verkligt fysiskt system eller baserade på mänskligt resonemang. Följaktligen är det typiskt svårt att förstå hur en viss uppsättning nervceller förhåller sig till systemfunktionen. Till exempel, AlphaGo slår topp mänskliga spelare 7, men undersökning av dess underliggande nätverk ger lite insikt i reglerna bakom sina rörelser eller hur dessa kodas av neuroner. Dessa är så kallade svarta rutor 8, där input-output funktionen exakt modellerar ett faktiskt system, men den interna strukturen gör inte (Fig. 1a).............................................................................................. Sådana modeller, även om de utan tvivel är användbara, är otillräckliga i de fall där simulering behövs inte bara av systemfunktionen utan också av systemstrukturen. I synnerhet försöker många tillämpningar inom biologi och medicin att modellera både funktionellt utfall och de mekanismer som leder till detta resultat så att dessa kan förstås och manipuleras genom läkemedel, gener eller miljö. Här rapporterar vi DCell, en tolkningsbar eller "synlig" neurala nätverk (VNN) simulerar en grundläggande eukaryotic cell. Denna modells struktur är formulerad utifrån omfattande förkunskaper om cellens hierarki av delsystem som dokumenterats för den spirande jästen Saccharomyces cerevisiae. Denna kunskap hämtas från någon av två källor: Gene Ontology (GO), en litteratur-kurerad referensdatabas från vilken vi extraherade 2 526 cellulära delsystem (intracellulära komponenter, processer eller funktioner) 9; eller Clique-eXtrakted Ontology (CliXO), en alternativ ontologi av liknande storlek som härleds från storskaliga molekylära dataset snarare än litteratur kuration 10, 11. Medan CliXO och GO överlappar i 38% av delsystemen, en del i CliXO är uppenbara i storskaliga datamängder men ännu inte karakteriseras i litteratur, medan en del i GO är dokumenterade i litteraturen men svåra att identifiera i big data. Subsystem i dessa ontologier är sammankopplade genom hierarkiska relationer mellan föräldrar och barn av medlemskap eller inneslutning. Sådana hierarkier bildar en naturlig bro från variationer i genotyp, på skalan av nukleotider och gener, till variationer i fenotyp, på skalan av celler och organismer 12, 13. DCells funktion inlärs under en utbildningsfas där störningar i gener sprids genom hierarkin för att påverka moderdelsystem som innehåller dem, vilket ger upphov till funktionella förändringar i proteinkomplex, biologiska processer, organeller och slutligen ett förutsagt svar på cellnivå. | DCell konstruerar ett flerskikts neuralt nätverk baserat på omfattande tidigare biologisk kunskap för att simulera tillväxten av en eukaryotic cell REF. | 3,783,024 | Using deep learning to model the hierarchical structure and function of a cell | {'venue': 'Nature Methods', 'journal': 'Nature Methods', 'mag_field_of_study': ['Biology', 'Medicine']} | 1,812 |
Twitter, en mikrobloggningstjänst som är mindre än tre år gammal, har mer än 41 miljoner användare i juli 2009 och växer snabbt. Twitter-användare tweet om något ämne inom 140 teckengränsen och följa andra för att få sina tweets. Målet med denna uppsats är att studera de topologiska egenskaperna hos Twitter och dess makt som ett nytt medium för informationsutbyte. Vi har krupit hela Twitter-webbplatsen och fått 41,7 miljoner användarprofiler, 1,47 miljarder sociala relationer, 4, 262 trender och 106 miljoner tweets. I sin topologianalys har vi funnit en icke-power-law efterföljare distribution, en kort effektiv diameter, och låg ömsesidighet, som alla markerar en avvikelse från kända egenskaper hos mänskliga sociala nätverk [28]. För att identifiera inflytelserika på Twitter har vi rankat användare efter antalet följare och av PageRank och funnit två rankningar vara likartade. Rankningen av retweets skiljer sig från de två tidigare rankingarna, vilket tyder på en skillnad i inflytande som kan härledas från antalet anhängare och från populariteten av ens tweets. Vi har analyserat tweets av topptrenderande ämnen och rapporterat om deras temporal beteende och användarens deltagande. Vi har klassificerat de trendiga ämnena baserat på den aktiva perioden och tweetsen och visar att majoriteten (över 85 %) av ämnena är huvudnyheter eller bestående nyheter i naturen. En närmare titt på retweets visar att en retweetad tweet är att nå ett genomsnitt på 1, 000 användare oavsett antalet följare av den ursprungliga tweeten. När retweeted, en tweet får retweeted nästan omedelbart på nästa humle, vilket innebär snabb spridning av information efter 1: a retweet. Såvitt vi vet är detta arbete den första kvantitativa studien på hela Twittersfären och informationsspridningen på den. | Kwak m.fl. Ref studie trending ämnen rapporterade av Twitter och jämföra dem med trender i andra medier, visar att de flesta ämnen är rubriker eller ständiga nyheter. | 207,178,765 | What is Twitter, a social network or a news media? | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Political Science']} | 1,813 |
Eftersom en ansluten graf G = (V, E), där V betecknar uppsättningen noder och E uppsättningen av kanter av grafen, längden (det vill säga antalet kanter) av den kortaste vägen mellan två noder v och w betecknas av d (v, w ). Närheten centralitet av en vertex v definieras sedan som n-1 w -V d (v,w ), där n = -V -. Denna åtgärd används allmänt i analysen av verkliga komplexa nätverk, och problemet med att välja k mest centrala hörn har analyserats djupt under det senaste årtiondet. Detta problem är dock inte lätt att beräkna, särskilt för stora nätverk: i den första delen av artikeln, visar vi att det inte går att lösa i tid O (-) 2-ε ) på riktade grafer, för varje konstant ε > 0, under rimliga komplexa antaganden. Dessutom föreslår vi en ny algoritm för att välja k mest centrala noder i en graf: vi experimentellt visar att denna algoritm avsevärt förbättrar både läroboksalgoritmen, som bygger på att beräkna avståndet mellan alla par av hörn, och state of the art. Till exempel kan vi beräkna de översta k noderna på några dussintals sekunder i verkliga nätverk med miljontals noder och kanter. Slutligen, som en fallstudie, beräknar vi de 10 mest centrala aktörerna i Internet Movie Database (IMDB) samarbetsnätverk, där två aktörer är kopplade om de spelade tillsammans i en film, och i Wikipedia citering nätverk, som innehåller en riktad kant från en sida p till en sida q om p innehåller en länk till q. Graphs 53:3 och hundratals miljoner kanter. Den nya metoden kombinerar den BFS-baserade algoritmen med en beskärningsteknik: under algoritmen, vi beräkna och uppdatera övre gränser på närhet av alla noder, och vi utesluter en nod v från beräkningen så snart dess övre gräns är "liten nog", det vill säga, vi är säkra på att v inte tillhör de översta k noderna. Vi föreslår två olika strategier för att ställa in de initiala gränserna, och två olika strategier för att uppdatera gränserna under beräkningen: detta innebär att vår algoritm kommer i fyra olika varianter. De experimentella resultaten visar att olika variationer fungerar bra på olika typer av nätverk, och den bästa variationen av vår algoritm överträffar drastiskt både ett probabilistiskt tillvägagångssätt (Okamoto et al. 2008), och den bästa exakta algoritmen hittills (Olsen et al. 2014)................................................................. Vi har för första gången beräknat de 10 mest centrala noderna (när det gäller närhetsmåttet) i nätverk med miljontals noder och hundratals miljoner kanter, och vi har gjort det på mycket kort tid. Ett viktigt exempel är nätverket wiki-Talk, som också användes i (Sariyüce et al. 2013), där författarna föreslår en algoritm för att uppdatera närhet centraliteter efter kant tillägg eller raderingar. Vår prestation är cirka 30 000 gånger bättre än prestandan av läroboksalgoritmen: om bara den mest centrala noden behövs, kan vi återskapa den från grunden mer än 150 gånger snabbare än den geometriska genomsnittliga uppdateringstiden i (Sariyüce et al. 2013)................................................................. Dessutom är vårt tillvägagångssätt inte bara mycket effektivt, utan det är också mycket lätt att koda, vilket gör det till en mycket bra kandidat att implementera i befintliga grafbibliotek. Vi tillhandahåller en implementering av det i NetworKit (Staudt et al. 2016) och en av dess variationer i Sagemath (Csárdi och Nepusz 2006). Vi skissar de viktigaste idéerna i algoritmen i Avsnitt 4, och vi ger alla detaljer i Avsnitt 5-8. Vi utvärderar experimentellt den nya algoritmens effektivitet i Avsnitt 9. Dessutom kan vårt tillvägagångssätt enkelt utvidgas till någon centralitet mäter i form c (v) = w v f (d (v, w ) ), där f är en minskande funktion. Bortsett från Lins index, nästan alla metoder som försöker generalisera närhet centralitet till frånkopplade grafer faller under denna kategori. Den mest populära bland dessa åtgärder är harmonisk centralitet (Marchiori och Latora 2000), definieras som h(v) = w v 1 d (v,w ). För fullständighetens skull visar vi i Avsnitt 9 att vår algoritm fungerar bra även för denna åtgärd. I den sista delen av artikeln (avsnitt 10 och 11) behandlar vi två fallstudier: aktörsnätverket (1.797.446 hörn, 72.880.156 kanter) och Wikipedias citeringsnätverk (4.229.697 hörn, 102.165.832 kanter). I aktörsnätverket analyserar vi utvecklingen av de 10 mest centrala hörnen, med tanke på ögonblicksbilder tagna vart femte år mellan 1940 och 2014. Beräkningen utfördes på lite mer än 45 minuter. I Wikipedia fallstudien anser vi att både standardciteringsnätverket, som innehåller en riktad kant (p, q) om p innehåller en länk till q, och det omvända nätverket, som innehåller en riktad kant (p, q) om q innehåller en länk till p. För de flesta av dessa grafer, kan vi beräkna de 10 mest centrala sidorna på några minuter, vilket gör dem tillgängliga för ytterligare analyser. | REF utvecklade en algoritm för att hitta topp k högsta närhet centralitet hörn som finner en övre gräns på närhet poäng för varje vertex. | 203,621,053 | Computing top-k Closeness Centrality Faster in Unweighted Graphs | {'venue': 'TKDD', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 1,814 |
Abstrakt. Samordningsspråk för ad hoc-nätverk med vätsketopologi ger inte tillräckligt stöd för att upptäcka och hantera frånkoppling av enheter. En sådan frånkoppling är särskilt relevant om den anordning som tillhandahålls kontextinformation snarare än att sända meddelanden, eftersom sådan sammanhangsinformation då blir ogiltig. I detta dokument föreslås Fact Space Model som etablerar ett logiskt samordningsspråk på toppen av Limes federerade tuple utrymme. I modellen erbjuder det federerade utrymmet applikationer en konsekvent bild av sin miljö över vilken de kan resonera med hjälp av logiska regler. Dessa regler kodar vilka slutsatser som kan dras av förekomsten av särskilda fakta, och används på liknande sätt för att säkerställa konsekvensen i dessa slutsatser när produkterna går utanför räckvidd. Genom att tillåta applikationer att lägga till applikationsspecifika krokar till dessa regler erbjuds programmeraren en generell mekanism för att reagera på upptäckt och frånkoppling av anordningar. | Den Fact Space Model REF är en LIME-liknande federerad tuple utrymme modell som ger applikationer med en distribuerad kunskapsbas som innehåller logiska fakta som delas mellan samlokaliserade enheter. | 2,400,960 | Fact Spaces: Coordination in the Face of Disconnection | {'venue': 'COORDINATION', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,815 |
I det här dokumentet diskuteras begreppet modelldriven programvaruteknik som tillämpas på applikationsdomänen Grid. Som en förlängning till detta koncept, det tillvägagångssätt som beskrivs här, försöker kombinera både formella arkitekturcentriska och modelldrivna paradigm. Det är ett allmänt erkänt påstående att Grid-system sällan har utformats med hjälp av formella tekniker, även om från tidigare erfarenhet sådana tekniker har visat fördelar. I detta dokument förespråkas en formell teknisk strategi för utvecklingen av Grid-systemet i ett försök att bidra till en strikt utveckling av programvaruarkitekturer för Grids. Detta tillvägagångssätt är inriktat på tjänstekvalitet och plattformsöverskridande utveckling genom att tillämpa det modelldrivna paradigmet på en formell arkitekturcentrerad ingenjörsmetod. Denna kombination drar nytta av en formell semantisk beskrivningskraft utöver modellbaserade transformationer. Resultatet av ett sådant nytt kombinerat koncept främjar vidareutnyttjande av designmodeller och underlättar utvecklingen inom Grid computing. | I REF presenteras en arkitekturcentrerad metod för automatisk generering av Grid-tillämpningar. | 1,620,684 | A Formal Architecture-Centric Model-Driven Approach for the Automatic Generation of Grid Applications | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 1,816 |
Abstract-Vi anser att problemet med att bestämma maximal kapacitet för medieaccessskiktet (MAC) i trådlösa ad hoc-nät. På grund av det rumsliga innehållet för det delade trådlösa mediet kan inte alla noder samtidigt överföra paket till varandra i dessa nätverk. Det maximala antalet möjliga samtidiga överföringar är därför en uppskattning av den maximala nätkapaciteten och beror på att MAC-protokollet används. Vi visar att för en stor klass av MAC-protokoll baserat på virtuell bäraranalys med RTS/CTS-meddelanden, som innehåller den populära IEEE 802.11 standard, kan detta problem modelleras som en maximal avstånd-2 matchning (D2EMIS) i det underliggande trådlösa nätverket: Med tanke på en graf ( ), hitta en uppsättning kanter så att inga två kanter i är anslutna med en annan kant i. D2EMIS är NP-komplett. Vårt främsta mål är att visa att det kan approximeras effektivt i nätverk som uppstår i praktiken. Vi gör detta genom att fokusera på en visserligen förenklad, men ändå naturlig, grafteoretisk modell för ad hoc trådlösa nätverk baserade på diskgrafer, där en nod kan nå alla andra noder inom ett visst avstånd (noder kan ha olika räckvidd avstånd). Vi visar att vår approximation ger goda kapacitetsgränser. Vårt arbete är det första försöket att karakterisera ett viktigt "maximalt" mått på trådlös nätverkskapacitet, och kan användas för att sprida ljus över tidigare topologi formation protokoll som Span och GAF som försöker producera "bra" eller "kapacitetsbevarande" topologier, samtidigt som noder kan växla mellan sömn och vakna tillstånd. Vårt arbete visar ett effektivt sätt att beräkna en övre gräns på maximal trådlös nätverkskapacitet, vilket gör att topologi formation algoritmer för att avgöra hur nära de är optimal. Vi beskriver också en distribuerad algoritm för problemet för enhet disk grafer, och kort diskutera förlängningar av våra resultat till: 1) olika nod interferens modeller; 2) riktning antenner; och 3) andra transceiver konnektivitet strukturer förutom disk grafer. | Layerkapacitet (MAC) för trådlös ad hoc-nät har undersökts i REF. | 7,529,321 | The distance-2 matching problem and its relationship to the MAC-Layer capacity of ad hoc wireless networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 1,817 |
Sociala nätverk som Facebook, LinkedIn och Twitter har varit en viktig informationskälla för ett brett spektrum av användare. I Twitter, populär information som anses viktig av samhället propagerar genom nätverket. Att studera innehållets egenskaper i meddelandena blir viktigt för ett antal uppgifter, såsom att bryta nyhetsdetektering, personliga rekommendationer, vänners rekommendationer, känsloanalys och andra. Många forskare vill använda standardverktyg för textbrytning för att förstå meddelanden på Twitter, men den begränsade längden av dessa meddelanden hindrar dem från att användas till sin fulla potential. Vi tar itu med problemet med att använda vanliga ämnesmodeller i mikrobloggningsmiljöer genom att studera hur modellerna kan tränas på datasetet. Vi föreslår flera system för att utbilda en standardämnesmodell och jämföra deras kvalitet och effektivitet genom en uppsättning noggrant utformade experiment ur både kvalitativa och kvantitativa perspektiv. Vi visar att genom att utbilda en ämnesmodell på aggregerade meddelanden kan vi få en högre kvalitet på inlärd modell vilket resulterar i betydligt bättre prestanda i två verkliga klassificeringsproblem. Vi diskuterar också hur den toppmoderna Author-Topic modellen misslyckas med att modellera hierarkiska relationer mellan enheter i sociala medier. | REF visade hur utbildning av en ämnesmodell på aggregerade meddelanden resulterar i bättre kvalitetsinlärda modeller, vilket ger bättre resultat när man modellerar tweets. | 14,633,992 | Empirical study of topic modeling in Twitter | {'venue': "SOMA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,818 |
I detta dokument presenterar vi en ny ram för direkt volym rendering med hjälp av en splatting strategi baserad på elliptiska Gaussiska kärnor. För att undvika aliasering av artefakter introducerar vi konceptet med ett omsamplingsfilter som kombinerar en rekonstruktion med en lågpasskärna. På grund av likheten med Heckberts EWA-filter (elliptiskt vägt medelvärde) för texturkartläggning kallar vi vår teknik EWA volymsplatting. Det ger hög bildkvalitet utan aliasing artefakter eller överdriven suddig även med icke-sfäriska kärnor. Därför är den lämplig för regelbundna, rektilinjära och oregelbundna volymdatamängder. Dessutom introducerar vårt ramverk ett nytt tillvägagångssätt för att beräkna fotavtrycksfunktionen. Det underlättar effektiv perspektiv projicering av godtyckliga elliptiska kärnor till mycket lite extra kostnad. Slutligen visar vi att EWA-volymrekonstruktionskärnor kan reduceras till ytrekonstruktionskärnor. Detta gör vår platta primitiv universell i att rekonstruera yt- och volymdata. | Zwicker m.fl. REF införde EWA-filtrering (elliptiskt vägt genomsnitt) för att undvika aliasbildning av ytstrukturer och utvidgade sitt ramverk till volymsplatting. | 9,389,692 | EWA volume splatting | {'venue': "Proceedings Visualization, 2001. VIS '01.", 'journal': "Proceedings Visualization, 2001. VIS '01.", 'mag_field_of_study': ['Computer Science']} | 1,819 |
Abstrakt. Diskriminativa korrelationsfilter (DCF) har visat utmärkt prestanda för visuell objektspårning. Nyckeln till framgång är förmågan att effektivt utnyttja tillgängliga negativa data genom att inkludera alla ändrade versioner av ett träningsprov. Den underliggande DCF-formuleringen är dock begränsad till funktionskartor med enkel upplösning, vilket avsevärt begränsar dess potential. I detta dokument går vi längre än det konventionella DCF-ramverket och introducerar en ny formulering för utbildning av kontinuerliga konvolutionsfilter. Vi använder en implicit interpolationsmodell för att skapa inlärningsproblem i den kontinuerliga rumsliga domänen. Vår föreslagna formulering gör det möjligt att effektivt integrera djupkartor med flera upplösningar, vilket leder till överlägsna resultat på tre objektspårningsriktmärken: OTB-2015 (+5,1 % i genomsnittlig OP), Temple-Color (+4,6 % i genomsnittlig OP) och VOT2015 (20 % relativ minskning av felfrekvensen). Dessutom är vår strategi kapabel till sub-pixel lokalisering, avgörande för uppgiften att korrekt funktion punkt spårning. Vi visar också effektiviteten av vår inlärning formulering i omfattande funktionspunkt spårning experiment. Kod och kompletterande material finns på | Danelljan m.fl. REF införde nyligen en kontinuerlig rumslig domänformulering C-COT, för att möjliggöra effektiv integration av djupfunktioner med flera upplösningar. | 5,650,694 | Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual Tracking | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 1,820 |
Djupa neurala nätverk är mycket uttrycksfulla modeller som nyligen har uppnått toppmoderna prestanda på tal och visuella igenkänningsuppgifter. Deras uttrycksfullhet är orsaken till att de lyckas, men det får dem också att lära sig oförutsebara lösningar som kan ha kontraintuitiva egenskaper. I detta dokument rapporterar vi två sådana egenskaper. För det första finner vi att det inte finns någon skillnad mellan enskilda högnivåenheter och slumpmässiga linjära kombinationer av högnivåenheter, enligt olika metoder för enhetsanalys. Det tyder på att det är utrymmet, snarare än de enskilda enheterna, som innehåller den semantiska informationen i de höga skikten av neurala nätverk. För det andra finner vi att djupa neurala nätverk lär sig input-output kartläggningar som är ganska okontinuerliga i betydande utsträckning. Vi kan få nätverket att missklassificera en bild genom att tillämpa en viss knappt märkbar perturbation, som hittas genom att maximera nätverkets förutsägelsefel. Dessutom, den specifika karaktären av dessa perturbationer är inte en slumpmässig artefakt av lärande: samma perturbation kan orsaka ett annat nätverk, som utbildades på en annan delmängd av datauppsättningen, för att felklassificera samma ingång. | Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF rapporterade kontraintuitiva egenskaper hos neurala nätverk, och fann kontrarimala exempel med knappast märkbar perturbation som kunde vilseleda algoritmen. | 604,334 | Intriguing properties of neural networks | {'venue': 'ICLR 2014', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 1,821 |
Abstract-We introducerar ett nytt verktyg för approximering och testning algoritmer som kallas partitionering oracles. Vi utvecklar metoder för att konstruera dem för någon klass av avgränsade grafer med en utesluten mindre, och i allmänhet, för någon hyperfinit klass av avgränsade grafer. Dessa orakler använder endast lokal beräkning för att konsekvent svara på frågor om en global partition som bryter grafen till små anslutna komponenter genom att ta bort endast en liten bråkdel av kanterna. Vi illustrerar kraften i denna teknik genom att använda den för att utöka och förenkla ett antal tidigare approximations- och testresultat för glesa grafer, samt för att ge nya resultat som var ouppnåeliga med befintliga tekniker. Till exempel: • Vi ger konstant-tids approximation algoritmer för storleken på den minsta vertex täcka, den minsta dominerande uppsättningen, och den maximala oberoende uppsättningen för alla klasser av grafer med en utesluten minor. • Vi visar ett enkelt bevis på att någon mindre sluten graf egenskap kan testas i konstant tid i den avgränsade grad modellen. • Vi bevisar att det är möjligt att approxima avståndet till nästan alla ärftliga egendom i någon begränsad grad ärftliga familjer av grafer. Ärftliga egenskaper av intresse inkluderar bipartitet, k-färgbarhet och perfekthet. | Hassidim m.fl. REF-designade partitionsorakler för hyperfinita klasser av grafer och mindre slutna klasser av grafer. | 8,255,379 | Local Graph Partitions for Approximation and Testing | {'venue': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'journal': '2009 50th Annual IEEE Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 1,822 |
Irony är en viktig enhet i mänsklig kommunikation, både i vardagliga samtal och i skrivna texter inklusive böcker, webbplatser, chattar, recensioner och Twitter-meddelanden bland annat. Särskilda fall av ironi och sarkasm har studerats i olika sammanhang men, såvitt vi vet, först nyligen har den första offentligt tillgängliga corpus inklusive kommentarer om huruvida en text är ironisk eller inte publicerats av Filatova (2012). Ingen baslinje för klassificering av ironiska eller sarkastiska utvärderingar har dock angivits. Med detta dokument strävar vi efter att minska denna klyfta. Vi formulerar problemet som en övervakad klassificeringsuppgift och utvärderar olika klassificeringar och når ett F 1-mått på upp till 74 % med logistisk regression. Vi analyserar effekten av ett antal funktioner som har föreslagits i tidigare forskning samt kombinationer av dem. | REF analyserar inverkan av olika funktioner för sarkasm/järnklassificering. | 14,728,943 | An Impact Analysis of Features in a Classification Approach to Irony Detection in Product Reviews | {'venue': 'WASSA@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,823 |
Abstract-This paper presenterar metoder för att samla in och analysera fysiologiska data under verkliga körningsuppgifter för att bestämma en förares relativa stressnivå. Elektrokardiogram, elektromyogram, hudledning och andning registrerades kontinuerligt medan förare följde en bestämd väg genom öppna vägar i det större Bostonområdet. Data från 24 enheter med en varaktighet på minst 50 min samlades in för analys. Uppgifterna analyserades på två sätt. Analys Jag använde funktioner från 5-min intervall av data under resten, motorvägen, och stadskörning förhållanden för att skilja tre nivåer av förarstress med en noggrannhet på över 97% över flera förare och kördagar. Analys II jämförde kontinuerliga funktioner, beräknade med 1-s intervall under hela hårddisken, med ett mått av observerbara stressorer skapade av oberoende kodare från videoband. Resultaten visar att för de flesta förare studerade, hud konduktivitet och pulsmätningar är närmast korrelerade med förarens stressnivå. Dessa fynd tyder på att fysiologiska signaler kan ge ett mått på förarens stress i framtida bilar som kan utföra fysiologisk övervakning. Ett sådant mått skulle kunna användas för att hantera icke-kritiska informationssystem i fordon och skulle också kunna ge ett kontinuerligt mått på hur olika väg- och trafikförhållanden påverkar förare. | Healey och Al. REF analyserade data från 24 körpass som var minst 50 min långa. | 1,409,560 | Detecting stress during real-world driving tasks using physiological sensors | {'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 1,824 |
Att bedöma relevansen mellan en fråga och ett dokument är en utmaning vid ad hoc-sökning på grund av dess olika mönster, dvs. ett dokument kan vara relevant för en fråga som helhet eller delvis så länge det ger tillräcklig information för användarnas behov. Sådana olika relevansmönster kräver en idealisk hämtningsmodell för att kunna bedöma relevansen i rätt granularitet adaptivt. Tyvärr beräknar de flesta befintliga hämtningsmodeller relevans på en enda granularitet, antingen dokument-wide eller passage-nivå, eller använda fast kombinationsstrategi, vilket begränsar deras förmåga att fånga olika relevans mönster. I detta arbete föreslår vi en datadriven metod för att göra det möjligt för relevanta signaler vid olika granulariteter att konkurrera med varandra om slutlig relevansbedömning. Särskilt föreslår vi en HIerarchical Neural maTching modell (HiNT) som består av två staplade komponenter, nämligen lokalt matchande lager och globalt beslutslager. Det lokala matchande skiktet fokuserar på att producera en uppsättning lokala relevanta signaler genom att modellera den semantiska matchningen mellan en fråga och varje passage av ett dokument. Det globala beslutsskiktet ackumulerar lokala signaler till olika granulariteter och gör det möjligt för dem att konkurrera med varandra för att bestämma den slutliga relevansen. Experimentella resultat visar att vår HiNT-modell överträffar befintliga toppmoderna hämtningsmodeller betydligt på referensdatauppsättningar för ad-hoc hämtning. • Informationssystem → Lära sig att rangordna; KEYWORDS relevansmönster; ad-hoc hämtning; neurala nätverk ACM Referensformat: | Med utgångspunkt i DeepRank föreslår REF att olika relevanta mönster ska modelleras med en datadriven metod för att möjliggöra rele-tabell 5: Jämförelser mellan NPRF- och frågeexpansionsbaslinjer för TREC1-3 och Robust04. | 21,678,266 | Modeling Diverse Relevance Patterns in Ad-hoc Retrieval | {'venue': "SIGIR '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,825 |
Sammanfattning av denna webbsida: Ambient Assisted Living (AAL) är ett framväxande tvärvetenskapligt område som syftar till att utnyttja informations- och kommunikationsteknik inom personlig vård och telehälsosystem för att motverka effekterna av en växande äldre befolkning. AAL-system är utvecklade för personliga, anpassningsbara och förutsebara krav, vilket kräver hög servicekvalitet för att uppnå driftskompatibilitet, användbarhet, säkerhet och noggrannhet. Syftet med detta dokument är att ge en omfattande översyn av AAL-området med fokus på hälso- och sjukvårdsramar, plattformar, standarder och kvalitetsattribut. För att uppnå detta genomförde vi en litteraturundersökning av toppmoderna AAL-ramverk, system och plattformar för att identifiera de väsentliga aspekterna av AAL-system och undersöka de kritiska frågorna ur design-, teknik-, servicekvalitets- och användarupplevelseperspektiv. Dessutom genomförde vi en e-baserad undersökning för att samla in användningsdata och aktuell status för moderna AAL-system. Vi fann att de flesta AAL-system är begränsade till en begränsad uppsättning funktioner som ignorerar många av de väsentliga aspekterna av AAL-systemet. Standarder och teknik används på ett begränsat och isolerat sätt, medan kvalitetsattribut ofta behandlas otillräckligt. Sammanfattningsvis fann vi att mer interorganiseringssamarbete, användarcentrerade studier, ökat standardiseringsarbete och fokus på öppna system behövs för att uppnå mer driftskompatibla och synergistiska AAL-lösningar. ÖPPET ANSLUTNINGSensorer 2014, 14 4313 | Ambient assisterad boende (AAL) är ett framväxande tvärvetenskapligt område som syftar till att utnyttja informations- och kommunikationsteknik (IKT) i personlig hälso- och sjukvård och telehälsosystem för att motverka effekterna av en växande äldre befolkning REF. | 5,728,414 | Ambient Assisted Living Healthcare Frameworks, Platforms, Standards, and Quality Attributes | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']} | 1,826 |
I detta dokument studeras problemet med att inbädda mycket stora informationsnätverk i lågdimensionella vektorutrymmen, vilket är användbart i många uppgifter som visualisering, nodklassificering och länkförutsägelse. De flesta befintliga grafen inbäddningsmetoder inte skala för verkliga världen informationsnätverk som vanligtvis innehåller miljontals noder. I detta dokument föreslår vi en ny metod för inbäddning av nätverk som kallas "LINE", som är lämplig för godtyckliga typer av informationsnätverk: oriktade, riktade och/eller vägda. Metoden optimerar en noggrant utformad objektiv funktion som bevarar både de lokala och globala nätverksstrukturerna. En edge-sampling algoritm föreslås som tar itu med begränsningen av den klassiska stokastisk lutning nedstigning och förbättrar både effektiviteten och effektiviteten av inferensen. Empiriska experiment visar LINE:s effektivitet i en mängd olika verkliga informationsnätverk, inklusive språknätverk, sociala nätverk och citeringsnätverk. Algoritmen är mycket effektiv, som kan lära sig inbäddning av ett nätverk med miljontals hörn och miljarder kanter på några timmar på en typisk enda maskin. Källkoden för LINE finns tillgänglig på nätet. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | LINE REF lär sig diagram inbäddningar som bevarar både rst-order och andra-order-förutsättningar i en graf. | 8,399,404 | LINE: Large-scale Information Network Embedding | {'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,827 |
Vi använder aktiva och passiva trafikmätningar för att identifiera de problem som är förknippade med utbyggnaden av en rösttjänst över ett stamnät i nivå 1 IP. Våra resultat visar att ingen specifik hantering av röstpaket (dvs. QoS-differentiering) behövs i den nuvarande ryggraden, men nya protokoll och mekanismer måste införas för att ge ett bättre skydd mot länkfel. Vi upptäcker att länkfel kan följas av långa perioder av routing instabilitet, under vilka paket kan släppas eftersom vidarebefordras längs ogiltiga vägar. Vi identifierar också behovet av en ny familj av kvalitetsmekanismer för tjänster som bygger på ett snabbt trafikskydd och hög tillgänglighet av tjänsten snarare än prestanda när det gäller förseningar och förluster. | I Ref genomfördes en studie där aktiva och passiva trafikmätningar gjordes för att identifiera de frågor som rör utbyggnaden av rösttjänster över IP-nätet. | 296,248 | Impact of link failures on VoIP performance | {'venue': "NOSSDAV '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,828 |
Abstract-I detta papper, ett trådlöst samarbetsnätverk beaktas, där flera källdestination par kommunicerar med varandra via en energi skörd relä. Fokus i detta dokument ligger på reläets strategier för att distribuera den skördade energin bland de många användarna och deras inverkan på systemets prestanda. Särskilt är en icke-kooperativ strategi att använda den energi som skördas från den i-th källan som reläöverföringskraft till den i-th destinationen, till vilken asymptotiska resultat visar att dess avbrott prestanda sönderfaller som log SNR SNR. En snabbare sönderfallsfrekvens, 1 SNR, kan uppnås genom de två centraliserade strategier som föreslås detta papper, där vattenfyllning baserad man kan uppnå optimal prestanda med avseende på flera kriterier, med ett pris av hög komplexitet. Ett auktionsbaserat system för maktfördelning föreslås också för att uppnå en bättre avvägning mellan systemets prestanda och komplexitet. Simuleringsresultat tillhandahålls för att bekräfta noggrannheten i de utvecklade analysresultaten och underlätta en bättre resultatjämförelse. | Ding m.fl. Ref ansågs vara ett kooperativt EH-relänät bestående av flera källdestinationspar med hjälp av ett EH-relä och ett auktionsbaserat system för tilldelning av elkraft föreslogs för att ta itu med den avverkade energidistributionen bland de flera källnoderna. | 7,140,831 | Power Allocation Strategies in Energy Harvesting Wireless Cooperative Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 1,829 |
Det är möjligt att konstruera ett säkerhetsargument för programvaruaspekterna i ett system för att visa att programvaran är acceptabelt säker att använda. För att vara övertygande är det nödvändigt att motivera att de argument och bevis som läggs fram för programvaran ger tillräcklig säkerhet. I detta dokument överväger vi hur man uttryckligen kan beakta försäkringar när man utvecklar ett säkerhetsargument för programvara. Vi föreslår en ram för att fatta och motivera beslut om de argument och bevis som krävs för att garantera programvarans säkerhet. | Detta tar dock inte uttryckligen hänsyn till förtroendet för säkerhetsargumentet och förtroendet för säkerhetsbeviset REF. | 42,097,891 | Software safety assurance - what is sufficient? | {'venue': 'ICONS 2009', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,830 |
Konvolutionella neurala nätverk är extremt effektiva arkitekturer i bild- och ljudigenkänningsuppgifter, tack vare deras förmåga att utnyttja den lokala translationella invariansen av signalklasser över deras domän. I detta dokument överväger vi möjliga generaliseringar av CNN till signaler som definieras på mer allmänna områden utan verkan av en översättningsgrupp. I synnerhet föreslår vi två konstruktioner, en baserad på en hierarkisk klunga av domänen, och en annan baserad på spektrumet av grafen Laplacian. Vi visar genom experiment att för lågdimensionella grafer är det möjligt att lära sig konvolutionella skikt med ett antal parametrar oberoende av ingångsstorleken, vilket resulterar i effektiva djupa arkitekturer. | I REF definieras möjliga generaliseringar av konvolutionella neurala nätverk (CNN) till signaler för mer allmänna områden. | 17,682,909 | Spectral Networks and Locally Connected Networks on Graphs | {'venue': 'ICLR 2014', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 1,831 |
Abstrakt. Många webbapplikationer tillhandahåller personliga och anpassade tjänster och innehåll till sina användare. I takt med att dessa webbapplikationer blir allt mer uppkopplade är en ny intressant utmaning i sin teknik att låta webbapplikationerna utbyta, återanvända, integrera, länka och berika sina data och användarmodeller, för att därmed möjliggöra användarmodellering och personalisering över programgränserna. I detta dokument presenterar vi Grapple User Modeling Framework (GUMF) som underlättar förmedlingen av användarprofilinformation och användarmodellrepresentationer. Vi visar hur den befintliga GUMF utökas med en ny metod som bygger på konfigurerbara härledningsregler som styr en ny kunskapsavdragsprocess. Med vår metod är det möjligt att inte bara integrera data från GUMF-datarymder, utan också att införliva och återanvända RDF-data publicerade som länkade data på webben. Därför introducerar vi det så kallade Grapple Derivation Rule (GDR) språket samt motsvarande DDR Engine. Dessutom visar vi upp det utvidgade GUMF inom ramen för ett konkret projekt inom området e-lärande. | I REF presenterar författaren ett ramverk (GUMF) som underlättar förmedlingen av användarprofilinformation och användarmodellrepresentationer. | 16,492,213 | A Flexible Rule-Based Method for Interlinking, Integrating, and Enriching User Data | {'venue': 'ICWE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 1,832 |
Tillnärmning av högorder tensorer med låg Tucker-rank tensorer har tillämpningar inom bland annat psykometri, kemometri, datorseende, biomedicinsk informatik. Traditionellt, lösningsmetoder för att hitta en låg Tucker-rank approximation förutsätter att storleken på kärn tensorn specificeras i förväg, vilket kanske inte är ett realistiskt antagande i många tillämpningar. I detta dokument föreslår vi en ny beräkningsmodell där konfigurationen och kärnans storlek blir en del av de beslut som ska optimeras. Vårt tillvägagångssätt är baserat på den så kallade metoden för maximal blockförbättring (MBI) för icke-konvex blockoptimering. Numeriska tester på olika verkliga datauppsättningar från genuttrycksanalys och bildkomprimering rapporteras, som visar lovande prestanda av de föreslagna algoritmerna. | Chen och Al. REF föreslog en ny beräkningsmodell för en liten Tucker-nedbrytning där konfigurationen och kärnans storlek blir en del av de beslut som ska optimeras. | 26,287,390 | On optimal low rank Tucker approximation for tensors: the case for an adjustable core size | {'venue': None, 'journal': 'Journal of Global Optimization', 'mag_field_of_study': ['Computer Science']} | 1,833 |
Upptäckten av föreningsregler har visat sig vara användbar i många tillämpningar. I tidigare arbete, alla objekt i n a b asket databasen t r ätas enhetligt. Vi generaliserar detta till fallet där objekt ges vikter för att reektera deras betydelse för användaren. Vikterna kan motsvara särskilda säljfrämjande åtgärder för vissa produkter, eller möjligheten att använda olika produkter. Vi kan bryta de viktade föreningsreglerna med vikter. Den nedåtriktade stängningen av stödåtgärden i den oviktade c-asen existerar inte längre och tidigare algoritmer kan inte tillämpas. I detta dokument kommer två nya algoritmer att införas för att hantera detta problem. I dessa algoritmer använder vi oss av ett mått som kallas k-stöd som är bundet i gruvprocessen. Experimentella resultat visar att algoritmerna för stora databaser är eektiva. | MINWAL REF bryter de viktade föreningsreglerna i binära transaktionsdatabaser baserat på k-stöd bunden egendom. | 6,736,143 | Mining association rules with weighted items | {'venue': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'journal': "Proceedings. IDEAS'98. International Database Engineering and Applications Symposium (Cat. No.98EX156)", 'mag_field_of_study': ['Computer Science']} | 1,834 |
Abstract-Detta arbete syftar till att ge ett neurofuzzy system för att upptäcka hjärtinfarkt. Sedan utformades euro-fuzzy-systemet med åtta inmatningsfält och ett utmatningsfält. Ingångsvariabler är hjärtfrekvens, motion, blodtryck, ålder, kolesterol, bröstsmärta typ, blodsocker och kön. Utgången upptäcker risknivåerna hos patienter som är indelade i 4 olika fält: mycket låga, låga, höga och mycket höga. Den datamängd som användes extraherades från databasen och modellerades för att göra den lämplig för utbildningen, sedan skapades den ursprungliga FIS-strukturen, nätverket utbildades med den uppsättning utbildningsdata varefter det testades och validerades med uppsättningen testdata. Utgången av systemet var utformad på ett sätt som patienten kan använda den personligen. Patienten behöver bara tillhandahålla vissa värden som fungerar som ingång till systemet och baserat på de värden som tillhandahålls systemet kommer att kunna förutsäga patientens risknivå. | Det neuro luddiga systemet utformades med hjälp av åtta indatavariabler och en utgångsvariabel REF. | 54,802,404 | Development of Neuro-fuzzy System for Early Prediction of Heart Attack | {'venue': None, 'journal': 'International Journal of Information Technology and Computer Science', 'mag_field_of_study': ['Computer Science']} | 1,835 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.