src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi tar itu med problemet med att lokalisera och uppskatta finslipningen av objekt i bilden med exakta 3D-modeller. Vårt huvudsakliga fokus är att förena bidrag från 1970-talet med senaste framsteg i objektdetektering: Använd lokala keypoint detektorer för att hitta kandidatposer och poäng global anpassning av varje kandidat utgör till bilden. Dessutom tillhandahåller vi också en ny datauppsättning som innehåller finjusterade objekt med exakt matchade 3D-modeller och en uppsättning modeller för allmänt använda objekt. Vi utvärderar också vår algoritm både på objektdetektering och fin pose estimation, och visar att vår metod överträffar toppmoderna algoritmer.
REF tar också upp problemet med bedömning av synpunkter och underkategorier.
152,322
Parsing IKEA Objects: Fine Pose Estimation
{'venue': '2013 IEEE International Conference on Computer Vision', 'journal': '2013 IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
10,382
Motivering: Univariata statistiska tester används ofta för biomarkörer upptäckt i bioinformatik. Dessa förfaranden är enkla, snabba och deras produktion är lätt att tolka av biologer, men de kan bara identifiera variabler som ger en betydande mängd information isolerat från de andra variablerna. Eftersom biologiska processer förväntas innebära komplexa interaktioner mellan variabler, univariata metoder därmed potentiellt missa några informativa biomarkörer. Variabel relevans poäng som tillhandahålls av maskininlärning tekniker, dock, är potentiellt kunna belysa multivariat interagerande effekter, men till skillnad från p-värden returneras av univariat tester, dessa relevans poäng är vanligtvis inte statistiskt tolkas. Denna brist på tolkningsbarhet hindrar fastställandet av en relevanströskel för att extrahera en funktionsdelmängd från rangordningen och förhindrar också att dessa metoder används i stor utsträckning av praktiker. Resultat: Vi utvärderade flera, befintliga och nya, förfaranden som extraherar relevanta funktioner från ranking som härrör från maskininlärning metoder. Dessa förfaranden ersätter relevanspoängen med åtgärder som kan tolkas på ett statistiskt sätt, t.ex. p-värden, falska upptäckter eller felfrekvenser inom familjen, för vilka det är lättare att fastställa en signifikansnivå. Experiment utfördes på flera konstgjorda problem såväl som på verkliga microarray dataset. Även om metoderna skiljer sig åt i fråga om datortid och avvägning, de uppnår i form av falska positiva och falska negativa, några av dem i hög grad hjälpa till med utvinning av verkligt relevanta biomarkörer och bör därför vara av stort praktiskt intresse för biologer och läkare. Som en sidoslutsats betonar våra experiment också tydligt att det ofta är kontraproduktivt att använda modellens prestanda som kriterium för val av egenskaper. Pythonkällkoderna för alla testade metoder, liksom de MATLAB-skript som används för datasimulering, finns i det kompletterande materialet.
I REF jämför författarna flera sätt att få ett statistiskt tolkat index från en funktionsrelevanspoäng.
1,590,850
Statistical interpretation of machine learning-based feature importance scores for biomarker discovery
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']}
10,383
På grund av flexibiliteten i modellering av data heterogenitet har heterogena informationsnätverk (HIN) antagits för att karakterisera komplexa och heterogena hjälpdata i rekommendationssystem, som kallas HIN-baserad rekommendation. Det är en utmaning att utveckla effektiva metoder för HIN-baserade rekommendationer för både utvinning och utnyttjande av information från HIN. De flesta av HIN-baserade rekommendationsmetoder bygger på vägbaserad likhet, som inte helt kan bryta latenta struktur funktioner användare och objekt. I detta dokument föreslår vi ett nytt heterogent nätbaserat tillvägagångssätt för HIN-baserad rekommendation, kallat HEREC. För att bädda in HIN:er utformar vi en metapatbaserad slumpmässig gångstrategi för att generera meningsfulla nodsekvenser för nätverksinbäddning. Den lärda noden inbäddas först omvandlas av en uppsättning fusionsfunktioner, och därefter integreras i en utökad matris factorization (MF) modell. Den utökade MF-modellen tillsammans med fusionsfunktionerna är gemensamt optimerade för uppgiften att förutsäga kreditbetyg. Omfattande experiment på tre verkliga datauppsättningar visar Herec-modellens effektivitet. Dessutom visar vi HERec-modellens kapacitet för kallstartsproblemet, och avslöjar att den omvandlade inbäddningsinformationen från HINs kan förbättra rekommendationsprestandan.
Shi och Al. I REF föreslås en heterogen metod för inbäddning av nätverk för rekommendation (HERec) baserad på meta-patledsstyrda slumpmässiga promenader.
2,409,634
Heterogeneous Information Network Embedding for Recommendation
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
10,384
Vi presenterar MAC-nätverket, en ny helt olika neurala nätverksarkitektur, utformad för att underlätta explicit och uttrycksfullt resonemang. MAC flyttar bort från monolitiska Black-box neurala arkitekturer mot en design som uppmuntrar både transparens och mångsidighet. Modellen närmar sig problem genom att bryta ner dem i en serie av uppmärksamhetsbaserade resonemang steg, var och en utförs av en ny återkommande minne, uppmärksamhet och sammansättning (MAC) cell som upprätthåller en separation mellan kontroll och minne. Genom att binda ihop cellerna och införa strukturella begränsningar som reglerar deras interaktion lär sig MAC effektivt att utföra iterativa resonemangsprocesser som direkt kan härledas från data i ett end-to-end tillvägagångssätt. Vi demonstrerar modellens styrka, robusthet och tolkningsförmåga på den utmanande CLEVR-datauppsättningen för visuellt resonemang och uppnår en ny toppmodern 98,9% noggrannhet, vilket halverar felfrekvensen för den tidigare bästa modellen. Viktigare är att vi visar att modellen är beräkningseffektiv och dataeffektiv, i synnerhet kräver 5x mindre data än befintliga modeller för att uppnå starka resultat.
REF har generaliserat tanken på flerstegsresonemang och skapat en ny typ av minnesmodul som kallas minne, uppmärksamhet och sammansättning (MAC).
3,728,944
Compositional Attention Networks for Machine Reasoning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,385
I detta brev undersöker vi problemet med anti-jamming försvar i fleranvändarscenarier, där samordning mellan användare beaktas. Den Markov spelram används för att modellera och analysera anti-jamming försvar problem, och en samverkande multi-agent anti-jamming algoritm (CMAA) föreslås för att få den optimala anti jamming strategi. I sweet jaming scenarier, å ena sidan, den föreslagna CMAA kan ta itu med den externa skadliga störning. Å andra sidan kan den effektivt hantera den ömsesidiga inblandningen mellan användarna. Dessutom tar vi hänsyn till konsekvenserna av att känna av fel på grund av felsökning och falsklarm. Simuleringsresultat visar att den föreslagna CMAA är överlägsen både sensingbased method och oberoende Q-learning method, och har den högsta normaliserade hastigheten. Index Terms-Anti-jamming, multi-agent förstärkning lärande, Q-learning, Markov spel.
Referensreferensreferensen föreslog en multiagentisk samarbetsalgoritm mot jamming.
52,192,981
A Collaborative Multi-Agent Reinforcement Learning Anti-Jamming Algorithm in Wireless Networks
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']}
10,386
Under det senaste årtiondet har många tekniker och verktyg för att upptäcka mjukvarukloner föreslagits. I detta dokument ger vi en kvalitativ jämförelse och utvärdering av den nuvarande toppmoderna tekniken inom klondetektionsteknik och -verktyg, och organiserar den stora mängden information i en sammanhängande konceptuell ram. Vi börjar med bakgrundskoncept, en generisk klondetektionsprocess och en övergripande taxonomi av aktuella tekniker och verktyg. Vi klassificerar, jämför och utvärderar sedan teknikerna och verktygen i två olika dimensioner. För det första klassificerar och jämför vi metoder baserade på ett antal aspekter, som var och en har en uppsättning (eventuellt överlappande) attribut. För det andra utvärderar vi kvalitativt de klassificerade teknikerna och verktygen med avseende på taxonomi för redigeringsscenarier som utformats för att modellera skapandet av kloner av typ 1, typ 2, typ 3 och typ 4. Slutligen ger vi exempel på hur man kan använda resultaten av denna studie för att välja det lämpligaste klon detektionsverktyget eller tekniken i samband med en viss uppsättning mål och begränsningar. De viktigaste bidragen i detta dokument är: 1) ett schema för klassificering av klon detektion tekniker och verktyg och en klassificering av nuvarande klon detektorer baserat på detta schema, och 2) en taxonomi av redigeringsscenarier som producerar olika klontyper och en kvalitativ utvärdering av nuvarande klon detektorer baserat på denna taxonomi.
Roy och Al. REF ger en översikt över klondetekteringsverktyg och -tekniker.
17,181,849
Comparison and Evaluation of Code Clone Detection Techniques and Tools: A Qualitative Approach
{'venue': 'SCIENCE OF COMPUTER PROGRAMMING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,387
Vad är ursprunget till människans förmåga att representera sociala relationer? Vi tog itu med denna fråga genom att studera människors förståelse av social dominans som ett stabilt förhållande. Vi försåg spädbarn med interaktioner mellan animerade agenter i konfliktsituationer. Studierna 1 och 2 riktade förväntningarna på stabilitet i den sociala dominansen. De avslöjade att 15-mo-olds (och, i mindre utsträckning, 12-mo-olds) förväntar sig att ett asymmetriskt förhållande mellan två agenter förblir stabilt från en konflikt till en annan. För att göra det måste spädbarn dra slutsatsen att en av agenterna (den dominerande) konsekvent kommer att segra när hennes mål strider mot den andra (den underordnade). Studie 3 och 4 inriktade sig på utformningen av spädbarnens representation av social dominans. I dessa studier fann vi att 12 och 15-mo-åringar inte utvidgade sina förväntningar på dominans till oobserverade relationer, inte ens när de kunde ha etablerats genom transitiv inferens. Dessa resultat tyder på att spädbarns förväntningar på stabilitet härrör från deras representation av social dominans som ett förhållande mellan två agenter snarare än som en individuell egendom. Spädbarnens ådagalagda förståelse av den sociala dominansen återspeglar den kognitiva grunden för människans förmåga att representera sociala relationer, som kan vara evolutionistiskt uråldriga, och kan delas med icke-mänskliga arter. Kognitiv utveckling -naiva sociologi -mänsklig evolution -social kognition -relations resonerande----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- För det första, till skillnad från sociala interaktioner, är relationerna stabila över relativt långa tidsperioder och varierande situationer (1). För det andra gäller relationer över minst två individer, till skillnad från individuella läggningar, till exempel drag. Vi rapporterar fyra studier som undersökte dessa två nyckelegenskaper i mänskliga spädbarns representation av social dominans. Studierna 1 och 2 inriktades på spädbarnens förväntningar på social dominanss stabilitet över tid och situationer. Studierna 3 och 4 fokuserade på om spädbarn representerar social dominans som enskild egendom eller som relation. I linje med andra tillvägagångssätt inom biologi (2), kognitiv vetenskap (3) och samhällsvetenskap (4) definierar vi dominans som tendensen att segra när ens mål strider mot en annan agents. Målen för två agenter "konflikt" när uppfyllandet av målet för en av agenterna skulle hindra den andra agenten från att uppfylla sitt mål. Till exempel, om individerna A och B båda syftar till att förvärva en resurs, men bara en av dem kan få det, då deras mål konflikt. Observera också att begreppet "allmän tendens att råda" inte specificerar källan till denna kapacitet, och kan kartlägga begrepp som "makt" (4-6) eller "social status" (7) i litteraturen. Dominansrelationer är karakteristiska för många djurarter som lever i sociala grupper. I vissa arter av icke-mänskliga primater och i människor, individer inte bara spåra som är dominerande eller underordnad dem, men också erkänna dominans relationer andra. Denna kapacitet kan visa sig tidigt i människans onogeni och fenogeni (3, 8, 9). Antaganden om stabilitet kommer sannolikt att spela en avgörande roll i övervakningen av andras dominerande relationer. De gör det möjligt att i) utvinna dominerande relationer genom att observera sociala interaktioner, och ii) tillämpa dominerande relationer över alla situationer. (i) Dominansrelationer kan fastställas på grundval av olika signaler (t.ex. storlek, hållning, fysisk aggression, ålder, dominans och underkastelse i icke-mänskliga primater). Dessa signaler har något diagnostiskt värde eftersom de på något sätt är kausalt relaterade till förmågan att segra när två eller flera agenters mål står i konflikt. Ett annat sätt att sluta sig till dominerande relationer är helt enkelt att leta efter dess direkta manifestationer, genom att övervaka vem som segrar när två agenter har motstridiga mål. I dessa fall används observationen av en given interaktion för att dra en stabil social relation. Denna typ av process kommer sannolikt att vara viktig för att bedöma giltigheten av signaler om dominans. Till exempel, i icke-mänskliga primater, är tecken som storlek eller ålder ibland vilseledande, eftersom unga och små individer kan uppnå en hög dominans position genom sina sociala allianser (2, 8). Spårning som dominerar när agenter har motstridiga mål kan ge mer tillförlitlig information om dominerande relationer än agenter storlek eller ålder på lång sikt. (ii) För att kunna använda sociala relationer på ett effektivt sätt måste man också ha förväntningar på deras inverkan på sociala interaktioner. Att skapa dessa förväntningar på nya situationer innebär att man antar stabilitet genom tiden och konsekvens mellan olika situationer av dominerande relationer. Studierna 1 och 2 testade om mänskliga spädbarn (i) spårar vilka individer som dominerar mot andra inför motstridiga mål, och (ii) använder denna kunskap som grund för slutsatser om resultaten av framtida konflikter. Vi antog att spädbarns förståelse av målinriktade åtgärder kan vara tillräcklig för att identifiera situationer där agenters målkonflikter: Spädbarn kan förutsäga åtgärder på grundval av mål och ha viss förståelse för begränsningar som begränsar agenters åtgärder (10). De har också viss känslighet för agenters misslyckande när det gäller att uppnå sina mål (11). Dessa förmågor kan göra det möjligt för spädbarn att spåra vem som vinner när målen för två agenter strider. I studierna 3 och 4 undersöktes formen för spädbarnens representation av social dominans. Formatet på en representation anger hur den information den representerar återges, vilket innebär vilka aspekter av informationen som görs explicita i representationen. Det bestämmer vad som står för vad (t.ex., ange en uppsättning symboler och en uppsättning regler för att kombinera dessa symboler). Dessa studier inriktades således på vad som kan beskrivas som algoritmisk nivå (12) eller syntaktiska aspekter (13) av dominansbehandling. Det finns två troliga kandidater till det representativa formatet för social dominans. Det kan behandlas som en (i) stabil individuell egendom organiserad på en ordnad skala, liknande de som man kan använda för att mäta höjd, till exempel. Enligt denna uppfattning skulle en dominansnivå vara knuten till varje individ, och dominansförhållandet mellan två agenter kan direkt avläsas av denna skala genom att jämföra deras led. Alternativt kan dominans representeras som ett ii-förhållande, organiserat i par av
Tidig forskning om visuell förståelse av sociala interaktioner har sitt ursprung i det sociala och psykologiska vetenskapsområdet, där man studerar de olika typerna (t.ex. Learys circumplex, REF, och fysiska egenskaper (t.ex. avståndet mellan två individer, Hall 1966) av sociala relationer.
14,956,380
Representation of stable social dominance relations by human infants
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Psychology', 'Medicine']}
10,388
I detta dokument presenteras CRISP, den första analysmodellen för körtid med avseende på prestanda när frekvensen ändras i en GPGPU. Det visar att tidigare modeller som inte är riktade till en GPGPU inte tar hänsyn till viktiga egenskaper hos GPGPU-utförandet, inklusive den höga graden av överlappning mellan minnesåtkomst och beräkning och frekvensen av lagerrelaterade bås. CRISP ger betydligt större noggrannhet än tidigare prestandamodeller för körtid, vilket i genomsnitt ligger inom 4 % vid skalningsfrekvens med upp till 7X. Genom att använda CRISP för att köra en energieffektiv styrenhet för körtid ger en 10,7% förbättring av energidämpande produkt, jämfört med 6,2% uppnåbar via den bästa tidigare prestandamodellen.
Nath och al. REF presenterar CRISP-modell som analyserar prestandan inför olika frekvenser av beräkningskärnor.
10,042,463
The CRISP performance model for dynamic voltage and frequency scaling in a GPGPU
{'venue': 'MICRO-48', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,389
Trots de enorma framsteg som har gjorts under det senaste årtiondet när det gäller att utveckla användbara tillämpningar för maskininlärning, har deras bredare antagande hindrats av bristen på starka garantier som kan göras om deras beteende. I detta dokument överväger vi hur formella verifieringsmetoder som utvecklats för traditionella programvarusystem kan användas för kontroll av förstärkning av inlärningskompatibla system, en särskilt viktig klass av maskininlärningssystem. I stället för att upprätthålla säkerheten genom att undersöka och förändra strukturen i ett komplext neuralt nätverk implementation, vår teknik använder blackbox metoder för att syntetisera deterministiska program, enklare, mer tolkningsbara, approximationer av nätverket som ändå kan garantera önskade säkerhetsegenskaper bevaras, även när nätverket är utplacerad i oförutsedda eller tidigare oobserverade miljöer. Vår metodik ramar in problemet med neurala nätverk verifiering i termer av ett motexempel och syntax-styrda induktiv syntes förfarande över dessa program. Syntetiseringsförfarandet söker efter både ett deterministiskt program och en induktiv invariant över ett oändligt tillstånd övergångssystem som representerar en specifikation av en ansökans kontrolllogik. Ytterligare specifikationer som definierar miljörelaterade begränsningar kan också tillhandahållas för att ytterligare förfina sökytan. Syntetiserade program utplacerade i samband med ett neuralt nätverk implementation dynamiskt upprätthålla säkerhetsförhållanden genom att övervaka och förhindra potentiellt osäkra åtgärder som föreslås av neurala tillstånd att göra digitala eller hårda kopior av hela eller en del av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. PLDI '19, juni 22ś26, 2019 CCS-koncept · Programvara och dess konstruktion → Automatisk programmering; Formell programvaruverifiering.
REF använder ett syntesförfarande för att generera ett säkert deterministiskt program som kan upprätthålla säkerhetsförhållandena genom att övervaka den utplacerade DNN och förhindra potentiellt osäkra åtgärder.
174,802,999
An inductive synthesis framework for verifiable reinforcement learning
{'venue': 'PLDI 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,390
Transformer, som helt och hållet bygger på en uppmärksamhetsmekanism, introducerades av Vaswani et al. (2017) uppnår toppmoderna resultat för maskinöversättning. I motsats till återkommande och konvolutionella neurala nätverk, det inte uttryckligen modellerar relativ eller absolut position information i sin struktur. I stället kräver det att man lägger till representationer av absoluta positioner till sina ingångar. I detta arbete presenterar vi ett alternativt tillvägagångssätt, som utvidgar självuppmärksamhetsmekanismen till att effektivt överväga representationer av de relativa positionerna, eller avstånd mellan sekvenselement. På WMT 2014 engelska-till-tyska och engelska-till-franska översättningsuppgifter ger detta tillvägagångssätt förbättringar på 1,3 BLEU respektive 0,3 BLEU jämfört med absoluta positioner. Vi konstaterar särskilt att en kombination av relativ och absolut positionsrepresentation inte ger någon ytterligare förbättring av översättningens kvalitet. Vi beskriver ett effektivt genomförande av vår metod och kastar den som ett exempel på relation-medvetna själv-attention mekanismer som kan generalisera till godtyckliga grafmärkta ingångar.
Vi använder samma formulering av relation-medveten självuppmärksamhet som REF.
3,725,815
Self-Attention with Relative Position Representations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,391
ABSTRACT Vi presenterar en begränsningsorienterad statsbaserad bevismetod för samtidiga programvarusystem som utnyttjar kompositionalitet och abstraktion för att minska verikationsproblemet under utredning. Formell grund för denna metod är Modal Transition Systems som tillåter lös state-baserade specificationer, som kan ändras genom successiva tillägg av begränsningar. Nyckelbegrepp i vår metod är projektiva vyer, åtskillnad av bevisskyldigheter, Skolemization och abstraktion. Centralt till metoden är användningen av Parametrized Modal Transition Systems. Metoden överförs enkelt till realtidssystem, där det största problemet är parametrar för tidsbegränsningar.
Larsen m.fl. använda projektiva synpunkter för en begränsad, bevisbaserad metod för trafikomställningssystem REF.
907,657
A Constraint Oriented Proof Methodology Based on Modal Transition Systems
{'venue': 'TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,392
Även med den senaste utvecklingen i webbsökning av svar på frågor från strukturerade data, sökmotorer är fortfarande begränsade till frågor med ett objektivt svar, såsom europeiska huvudstäder eller Woody allen filmer. Men många frågor är subjektiva, till exempel säkra städer, eller söta djur. De underliggande kunskapsbaserna för sökmotorer innehåller inte svar på dessa frågor eftersom de inte har en grundläggande sanning. Vi beskriver Surveyor-systemet som bryter den dominerande åsikten hos författare av webbinnehåll om huruvida en subjektiv egenskap gäller för en viss enhet. Bevisen som Surveyor förlitar sig på är påståenden hämtade från webbtext som antingen stöder egendomen eller hävdar dess negation. Den viktigaste utmaningen som Surveyor står inför är att helt enkelt räkna antalet positiva och negativa uttalanden inte räcker, eftersom det finns flera dolda fördomar med vilka innehållet tenderar att skrivas på webben. Enkäten använder en probabilistisk modell av hur innehållet skrivs på webben. Som ett exempel, denna modell står för korrelationer mellan den subjektiva egenskapen och den frekvens med vilken den nämns på webben. Modellens parametrar är specialiserade på varje fastighets- och enhetstyp. Surveyor kunde bearbeta en stor webbsnapshot inom några timmar, vilket resulterade i åsikter för över 4 miljarder enhetsfastighetskombinationer. Vi valde ut en undergrupp på 500 unitproperty kombinationer och jämförde våra resultat med den dominerande åsikten hos ett stort antal Amazon Mechanical Turk (AMT) arbetare. Förutsägelserna från Surveyor motsvarar resultaten från AMT i 77 % av alla fall (och 87 % för testfall där överenskommelsen mellan arbetstagare är hög), vilket i hög grad överträffar konkurrerande metoder.
Även om dessa förslag är inriktade på saklig information syftar Ref-systemet till att koppla subjektiva egenskaper som uttrycks i åsikter som utvunnits från webben till enheter som representeras i en kunskapsbas.
17,823,957
Mining Subjective Properties on the Web
{'venue': "SIGMOD '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,393
Den onormala aktivitetsdetekteringen i smarta miljöer har fått ökad uppmärksamhet genom åren, på grund av dess användbarhet i genomträngande applikationer. För att möta behoven i realtid och övervinna de höga kostnaderna och integritetsfrågor, föreslår detta dokument distribuerad onormal aktivitet detektionsmetod (DetectingAct), som använder dator- och lagringsresurser av enkla och allestädes närvarande sensornoder, för att upptäcka onormal aktivitet i smarta miljöer utrustade med trådlösa sensornätverk (WSN). I DetectingAct definieras aktivitet som kombinationen av bana och varaktighet, och onormal aktivitet definieras som den aktivitet som avviker tillräckligt mycket från dessa normala aktiviteter. DetectingAct fungerar enligt följande. För det första, DetectingAct finner de normala aktivitetsmönster genom varaktighetsberoende frekventa mönster gruvalgoritm (DFPMA), som antar oövervakat lärande istället för övervakat lärande. För det andra införs mekanismen för distribuerad kunskapslagring (DKSM) för att lagra de minerade mönstren i varje nod. Därefter antar den strömutlösta sensorn distribuerad onormal aktivitetsdetekteringsalgoritm (DAADA), där klusteranalysen spelar en kritisk roll, för att jämföra den nuvarande aktiviteten med normala aktivitetsmönster, genom att beräkna likheten mellan dem. Genomförbarheten, egenskapen i realtid och noggrannheten hos DenectingAct algoritmen utvärderas med hjälp av både simulering och verkliga experiment fallstudier.
Arbetet i REF presenterar en distribuerad metod som använder dator- och lagringsresurser i varje nod av ett trådlöst sensornätverk (WSN) för att upptäcka onormala aktiviteter.
19,842,593
Distributed Abnormal Activity Detection in Smart Environments
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
10,394
Trots de många mekanismer för stegvis utbyggnad som föreslås är det fortfarande svårt att snabbt anta nya protokoll och arkitekturer i nätverksskiktet, vilket avspeglas i den utbredda bristen på IPv6-trafik på Internet. Vi visar att alla utplaceringsmekanismer måste ta itu med fyra nyckelfrågor: Hur man väljer ut en utflyttning från källnätet, hur man väljer ett intrång i målnätverket, hur man når ut och hur man når ingången. Genom att skapa ett designutrymme som kartlägger alla befintliga mekanismer genom hur de besvarar dessa frågor identifierar vi bristen på befintliga mekanismer i en del av detta designutrymme och föreslår två nya tillvägagångssätt: "4ID" och "Smart 4ID". 4ID-mekanismen använder ny dataplansteknik för att flexibelt bestämma när paket ska inkapslas vid vidarebefordran. Smart 4ID-mekanismen antar dessutom ett SDN-styrplan för att intelligent plocka ingress/egres par baserat på en bredare bild av det lokala nätverket. Vi implementerar dessa mekanismer tillsammans med två allmänt använda IPv6-utplaceringsmekanismer och utför experiment med bredområdesutplacering över PlanetLab. Vi drar slutsatsen att Smart 4ID ger bättre prestanda och fel semantik, och att innovationer i dataplanet och styrplanet möjliggör enkel inkrementell utbyggnad.
Inkrementell installation av nya protokoll och arkitekturer är ett operativt paradigmskifte REF, och SDN är inget undantag från detta.
2,884,968
Understanding tradeoffs in incremental deployment of new network architectures
{'venue': "CoNEXT '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,395
Abstract-När intelligenta robotar blir vanligare, metoder för att göra interaktion med robotarna mer tillgängliga blir allt viktigare. Att kommunicera de uppgifter som en person vill att roboten ska utföra via naturligt språk, och utbilda roboten att mala det naturliga språket genom demonstration, är särskilt tilltalande tillvägagångssätt för interaktion, eftersom de inte kräver en teknisk bakgrund. Befintliga metoder kartlägger dock naturliga språkkommandon till robotkommandospråk som direkt uttrycker sekvensen av åtgärder roboten bör utföra. Denna sekvens är ofta specifik för en viss situation och generaliserar inte till nya situationer. För att ta itu med detta problem presenterar vi ett system som grundar naturligt språk befaller att belöna funktioner med hjälp av demonstrationer av olika naturliga språk kommandon som utförs i miljön. Eftersom språket är grundat för att belöna funktioner, snarare än explicita åtgärder som roboten kan utföra, kan kommandon vara hög nivå, utföras i nya miljöer autonomt, och även överföras till andra robotar med olika handlingsytor. Vi visar att vår lärda modell både kan generaliseras till nya miljöer och överföras till en robot med ett annat actionutrymme än det actionutrymme som används under träningen.
MacGlashan m.fl. REF föreslog markbaserade kommandon för naturligt språk för att belöna funktioner som är förknippade med vissa uppgifter, vilket gör det möjligt för robotagenter att planera i stokastiska miljöer.
1,709,515
Grounding English Commands to Reward Functions.
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,396
Med tillkomsten av ord inbäddade, lexikon inte längre utnyttjas fullt ut för känsloanalys även om de fortfarande ger viktiga egenskaper i den traditionella miljön. I detta dokument introduceras en ny strategi för känsloanalys som integrerar lexicons inbäddningar och en uppmärksamhetsmekanism i konvolutionella neurala nätverk. Vår strategi utför separata konvolutioner för ord och lexicon inbäddar och ger en global syn på dokumentet med hjälp av uppmärksamhet. Våra modeller experimenteras både på datasetet SemEval'16 Task 4 och Stanford Sentiment Treebank och visar jämförande eller bättre resultat mot de befintliga toppmoderna systemen. Vår analys visar att inbäddningar av lexikon gör det möjligt att bygga högpresterande modeller med mycket mindre inbäddade ord, och uppmärksamhetsmekanismen dämpar effektivt bullriga ord för känsloanalys.
Ett anmärkningsvärt exempel är arbetet med REF där flera metoder testas för hur man införlivar lexikoninformation i ett CNN för känsloklassificering på datasetet SemEval 2016 Task 4 och Stanford Sentiment Treebank (SST).
1,254,267
Lexicon Integrated CNN Models with Attention for Sentiment Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,397
Vi relaterar två begrepp i grafteori och algoritmisk komplexitet, nämligen söknummer och vertex separation av en graf. Låt s (G ) betecknar söknumret och vs (G ) betecknar vertex separation av en ansluten, oriktad graf G. Vi visar att vs (G ) ≤ s (G ) ≤ vs (G ) + 2 och vi ger en enkel Vi karakteriserar de träd som har en given vertex separation och beskriva de minsta sådana träd. Vi noterar också att det finns träd för vilka skillnaden mellan söknummer och vertex separation verkligen är 2. Vi ger algoritmer som, för alla träd T, beräkna vs (T ) i linjär tid och beräkna en optimal layout med avseende på vertex separation i tid O (n log n ). Vertex separation har tidigare varit relaterat till progressiv svart/vit sten efterfrågan och har visat sig vara identisk med en variant av söknummer, nod söknummer, och till sökväg bredd, som har relaterats direkt till gate matris layout kostnad. Alla dessa egenskaper är kända för att vara beräkningsmässigt intractable. För fast k, en O (n log 2 n ) algoritm är känd som avgör om en graf har sökväg bredd som mest k.
Förhållanden mellan söknummer och vertex separation är etablerade i REF och metoder för att beräkna vertex-separation layout problem visades vara tillämpliga för att beräkna strategier i O(n log n) och bestämma söknumret i O(n) för vissa fall av problemet.
14,141,178
The Vertex Separation and Search Number of a Graph
{'venue': 'Inf. Comput.', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,398
Vi presenterar en förlängning till Tacotron talsyntes arkitektur som lär sig en latent inbäddning utrymme prosody, härledd från en referens akustisk representation som innehåller den önskade prosody. Vi visar att konditionering Tacotron på detta inbäddade utrymme resulterar i syntetiserat ljud som matchar prosody av referenssignalen med fin tid detalj även när referens-och synteshögtalare är olika. Dessutom visar vi att en referensprosody inbäddning kan användas för att syntetisera text som skiljer sig från referensuttalandet. Vi definierar flera kvantitativa och subjektiva mått för att utvärdera prosody överföring, och rapportera resultat med medföljande ljudprover från entaltalare och 44-talare Tacotron modeller på en prosody överföring uppgift.
Som tidigare nämnts introducerar REF den referens som används i detta arbete och visar att den kan användas för att överföra prosody från en referenssignal.
4,425,995
Towards End-to-End Prosody Transfer for Expressive Speech Synthesis with Tacotron
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
10,399
Abstract-Adverse reaktion som orsakas av läkemedel är ett potentiellt farligt problem som kan leda till dödlighet och morbiditet hos patienter. Extrahering av biverkningar (ADE) är ett betydande problem inom biomedicinsk forskning. Vi modellerar ADE-extrahering som ett frågesvarsproblem och hämtar inspiration från maskinläsförståelselitteratur (MRC) för att designa vår modell. Vårt mål med att utforma en sådan modell är att utnyttja det lokala språkliga sammanhanget i klinisk text och möjliggöra intrasekvensinteraktion, för att gemensamt lära sig klassificera läkemedels- och sjukdomsenheter, och för att extrahera biverkningar orsakade av ett visst läkemedel. Vår modell använder sig av en själv-attention mekanism för att underlätta intra-sekvens interaktion i en textsekvens. Detta gör det möjligt för oss att visualisera och förstå hur nätverket använder sig av det lokala och bredare sammanhanget för klassificering.
Ramamoorthy och Murugan REF presenterade en enkel sekvensmodell som använder sig av en självbetjäningsmekanism för att underlätta interaktion inom sekvensen i en textsekvens för den kombinerade uppgiften att identifiera enheter och extrahera negativa läkemedelshändelser.
19,695,195
An Attentive Sequence Model for Adverse Drug Event Extraction from Biomedical Text
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,400
Att lämna ut fullständiga dataposter är ett av de mest utmanande problemen när det gäller datasekretess. Å ena sidan är många av de populära teknikerna såsom data avidentifierande problematiska på grund av deras beroende av bakgrundskunskap av motståndare. Å andra sidan är rigorösa metoder som den exponentiella mekanismen för differentiell integritet ofta opraktiska att använda för att släppa högdimensionella data eller inte kan bevara hög nytta av ursprungliga data på grund av deras omfattande data perturbation. Detta dokument presenterar ett kriterium som kallas rimlig förnekelse som ger en formell integritetsgaranti, särskilt för att släppa känsliga dataset: en utdatapost kan endast släppas om en viss mängd indata är oskiljaktiga, upp till en sekretessparameter. Detta begrepp är inte beroende av en motståndares bakgrundskunskap. Dessutom kan det effektivt kontrolleras genom integritetstester. Vi presenterar mekanismer för att generera syntetiska dataset med liknande statistiska egenskaper som indata och samma format. Vi studerar denna teknik både teoretiskt och experimentellt. Ett viktigt teoretiskt resultat visar att med korrekt randomisering genererar den rimliga förnekelsemekanismen olika privata syntetiska data. Vi demonstrerar effektiviteten av denna generativa teknik på en stor datauppsättning; det visas att bevara nyttan av originaldata med avseende på olika statistiska analyser och maskininlärning åtgärder.
Till exempel tillämpas i REF en definition av rimlig förnekelse för att undersöka mekanismer för differentialt privat data set release.
1,669,271
Plausible Deniability for Privacy-Preserving Data Synthesis
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,401
Abstrakt. På olika områden har ontologier utvecklats och många av dessa ontologier innehåller överlappande information. Ofta skulle vi därför vilja kunna använda flera ontologier. För att uppnå goda resultat måste vi hitta relationen mellan termerna i de olika ontologierna, d.v.s. Vi måste anpassa dem. För närvarande finns det redan ett antal olika anpassningsstrategier. Det är dock oftast svårt för en användare som behöver anpassa två ontologier för att avgöra vilken av de olika tillgängliga strategierna som är lämpligast. I detta dokument föreslår vi en metod som ger rekommendationer om anpassningsstrategier för ett visst anpassningsproblem. Metoden bygger på utvärderingen av de olika tillgängliga anpassningsstrategierna på flera små utvalda delar från ontologierna och använder utvärderingsresultaten för att ge rekommendationer. I dokumentet ger vi de grundläggande stegen i metoden, och sedan illustrerar och diskuterar metoden vid fastställandet av ett anpassningsproblem med två välkända biomedicinska ontologier. Vi experimenterar också med olika implementeringar av stegen i metoden.
Den föreslagna metoden i Ref rekommenderar en anpassningsstrategi för ett visst anpassningsproblem.
3,212,377
A method for recommending ontology alignment strategies
{'venue': 'In Proceedings of the 6th International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,402
Ubiquitous parallell computing syftar till att göra parallellprogrammering tillgänglig för en mängd olika programmeringsområden med hjälp av deterministiska och skalfria programmeringsmodeller som bygger på en uppgift abstraktion. Det är dock fortfarande svårt att förena dessa attribut med rörledning parallellism, där antalet rörledning stadier är typiskt hårdkodade i programmet och definierar graden av parallellism. Detta dokument introducerar hyperqueues, en programmering abstraktion som gör det möjligt att bygga deterministiska och skalfria rörledning parallella program. Hyperqueues utökar begreppet Cilk++ hyperobjects för att ge trådlokala vyer på en delad datastruktur. Medan hyperobjects är organiserade kring privata lokala vyer, hyperqueues kräver delade samtidiga vyer på den underliggande datastrukturen. Vi definierar semantik av hyperqueues och beskriver deras genomförande i en arbets-stealing schemaläggare. Vi demonstrerar skalbara prestanda på pipeline-parallel PARSEC-riktmärken och finner att hyperqueues ger jämförbar eller upp till 30 % bättre prestanda än POSIX-gängor och Intels byggblock för gängning. De senare är starkt inställda till antalet tillgängliga processkärnor, medan program som använder hyperqueues är skalfria.
Vandierendonck m.fl. REF presenterar hyperqueues, en programmering abstraktion av köer som gör det möjligt att uttrycka deterministisk och skalfri rörledning parallellism.
4,994,537
Deterministic scale-free pipeline parallelism with hyperqueues
{'venue': "SC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,403
Uppskattning av etiketter är en viktig komponent i ett system för omidentifiering av personer utan tillsyn (re-ID). Detta dokument fokuserar på cross-camera etikettuppskattning, som sedan kan användas i funktionsinlärning för att lära sig robusta re-ID-modeller. Specifikt föreslår vi att man konstruerar en graf för prover i varje kamera, och sedan införs diagrammatchningsschema för cross-camera märkning association. Etiketter direkt från befintliga graf matchningsmetoder kan vara bullriga och felaktiga på grund av betydande tvärkameravariationer, men detta papper föreslår en dynamisk graf matchning (DGM) metod. DGM uppdaterar iterativt bildgrafen och etikettuppskattningsprocessen genom att lära sig ett bättre funktionsutrymme med mellanliggande uppskattade etiketter. DGM är fördelaktigt i två avseenden: 1) noggrannheten hos de uppskattade etiketterna förbättras avsevärt med iterationer; 2) DGM är robust till bullriga grundläggande utbildningsdata. Omfattande experiment som utförts på tre referensvärden, inklusive de storskaliga MARS-dataseten, visar att DGM ger konkurrenskraftiga resultat till fullt övervakade referensvärden och överträffar konkurrerande oövervakade inlärningsmetoder. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
- Ja, det är jag. REF föreslår en dynamisk grafmatchningsmetod för att bryta de tvärkamera etiketterna för iterativt lärande en discriminativ distans metrisk modell.
78,548
Dynamic Label Graph Matching for Unsupervised Video Re-identification
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
10,404
Vi presenterar en modell av Selinger och Valirons kvantlambda kalkyl baserad på von Neumann algebras, och visar att modellen är tillräcklig med hänsyn till den operativa semantiken. Nyckelord och fraser quantum lambda calculus, von Neumann algebras År 1925 insåg Heisenberg, begrundande problemet med spektrallinjerna i väteatomen, att en fysisk kvantitet såsom x-positionen av en elektron som kretsar kring en proton bäst beskrivs inte av ett verkligt tal utan av en oändlig rad komplexa tal [12]. En aktuell forskningslinje (med gamla rötter [6, 7, 9, 19] ) är studien av von Neumann algebras ur ett kategoriskt perspektiv (se t.ex. [4, 5, 30]). Ett exempel som är relevant för denna uppsats är Kornells bevis på att motsatsen till kategorin vNA MIE av von Neumann algebras med den uppenbara strukturen bevara kartor (dvs. Den enhetliga normal * -homomorphisms) är monoidal stängd när utrustade med den rumsliga tensor produkten [18]. Han hävdar att vNA op MIE bör betraktas som kvantversionen av Set. Vi vill istället fokusera på kategorin von Neumann algebras och helt positiva normala subenhetella kartor, vNA CPSU, eftersom det verkar lämpligare att modellera kvantberäkning: hela underkategorin vNA op CPSU som består av finita dimensionella von Neumann algebras motsvarar Selingers kategori Q [35], som används för att modellera första ordningens kvantprogrammeringsspråk. [36, 37] föreslog en typad 1 lambdakalkyl för kvantberäkning, och de studerade den i en serie av papper [38][39][40]. Ett slående drag i denna kvantlambda-kalkyl är att den fungerar * Den forskning som leder till dessa resultat har fått finansiering från Europeiska forskningsrådet inom Europeiska unionens sjunde ramprogram (FP7/2007-2013) / ERC-bidragsavtal n o 320571 1 En otypad kvantlambda-analys hade redan föreslagits av Van Tonder [43].
En modell baserad på W*-algebras för en quantum lambda kalkyl utan rekursion eller induktiva datatyper beskrevs i en nyligen publicerad manuskript REF.
9,559,616
Von Neumann Algebras form a Model for the Quantum Lambda Calculus
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
10,405
Vi presenterar en ny lösning på problemet med att återställa och spåra 3D-position, orientering och full artikulation av en mänsklig hand från markörlösa visuella observationer som erhållits av en Kinect-sensor. Vi behandlar detta som ett optimeringsproblem, söker efter handmodellparametrar som minimerar skillnaden mellan utseende och 3D struktur hypothesized fall av en handmodell och faktiska hand observationer. Detta optimeringsproblem löses effektivt med hjälp av en variant av partikelsvamoptimering (PSO). Den föreslagna metoden kräver inte särskilda markörer och / eller en komplex bild förvärv setup. Att vara modell baserad, det ger kontinuerliga lösningar på problemet med att spåra hand articulations. Omfattande experiment med en prototyp GPU-baserad implementation av den föreslagna metoden visar att noggrann och robust 3D-spårning av handledikuleringar kan uppnås i nära realtid (15Hz).
I REF uppfattas objektspårning som en partikel svärm optimering problem som uppskattar objektmodell parametrar, dvs. läge, orientering och artikulation.
8,677,556
Efficient Model-based 3 D Tracking of Hand Articulations using Kinect
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,406
Abstract-This paper presents PW-MAC (Predictive-Wakeup MAC), ett nytt energieffektivt MAC-protokoll baserat på asynkron duty cykling. I PW-MAC vaknar varje noder upp för att få vid randomiserade, asynkrona tider. PW-MAC minimerar energiförbrukningen vid sensornod genom att göra det möjligt för avsändare att förutsäga mottagarens väckartider; för att möjliggöra exakta förutsägelser inför PW-MAC en felkorrigeringsmekanism på begäran som effektivt tar itu med tidsutmaningar som oförutsägbar hårdvara och drift av operativsystem och klockdrift. PW-MAC introducerar också en effektiv förutsägelsebaserad retransmissionsmekanism för att uppnå hög energieffektivitet även när trådlösa kollisioner inträffar och paket måste återsändas. Vi utvärderar PW-MAC på en testbädd av MICAz motes och jämför det med X-MAC, WiseMAC, och RIC-MAC, tre tidigare energieffektiva MAC protokoll, under flera samtidiga multihop trafikflöden och under dolda-terminala scenarier och scenarier där noder har vakna schema konflikter. I alla experiment, PW-MAC betydligt överträffade dessa andra protokoll. Till exempel, utvärderas på scenarier med 15 samtidiga transceivrar i nätverket, den genomsnittliga avsändaren duty cykel för X-MAC, WiseMAC, och RIC-MAC var alla över 66%, medan PW-MAC genomsnittliga avsändare duty cykel var endast 11%; leverans latency för PW-MAC i dessa scenarier var mindre än 5% som för WiseMAC och X-MAC. I alla experiment upprätthöll PW-MAC en leveranskvot på 100%.
Tang och al. Föreslagen PW-MAC (Predictive-Wakeup) MAC-protokoll i REF.
14,370,685
PW-MAC: An energy-efficient predictive-wakeup MAC protocol for wireless sensor networks
{'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
10,407
I detta dokument föreslår vi en ny strategi för erkännande av flera åtgärder som utför gemensam segmentering och klassificering. Detta tillvägagångssätt modellerar varje åtgärd med hjälp av en Gaussian blandning med hjälp av robusta lågdimensionella actionfunktioner. Segmentering uppnås genom att utföra klassificering på överlappande tidsfönster, som sedan slås samman för att producera slutresultatet. Detta tillvägagångssätt är betydligt mindre komplicerat än tidigare metoder som använder dynamisk programmering eller beräknings dyrt dolda Markov modeller (HMMs). Initiala experiment på en sydd version av KTH-datasetet visar att den föreslagna metoden uppnår en noggrannhet på 78,3%, vilket överträffar en ny HMM-baserad metod som erhöll 71,2%.
Åtgärder modelleras med hjälp av en GMM med hjälp av lågdimensionella åtgärdsfunktioner i REF.
8,300,057
Multi-Action Recognition via Stochastic Modelling of Optical Flow and Gradients
{'venue': 'Workshop on Machine Learning for Sensory Data Analysis (MLSDA), pp. 19-24, 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,408
I den här artikeln beskriver vi ett system genom vilket Wikipedias flerspråkiga egenskaper kan användas för att kommentera en stor textkorpus med namngivna Entity Recognition (NER) taggar som kräver minimal mänsklig intervention och ingen språklig expertis. Denna process, även om den är av värde på de språk för vilka det finns resurser, är särskilt användbar för mindre allmänt undervisade språk. Vi visar hur Wikipedia formatet kan användas för att identifiera möjliga namngivna enheter och diskutera i detalj den process genom vilken vi använder kategoristrukturen inneboende i Wikipedia för att bestämma den namngivna enhetstypen av en föreslagen enhet. Vi beskriver vidare de metoder med vilka engelska språkdata kan användas för att bootstrap NER-processen på andra språk. Vi demonstrerar systemet genom att använda de genererade corpus som träningsset för en variant av BBN: s Identifinder i franska, ukrainska, spanska, polska, ryska och portugisiska, uppnå totalt F-scores så högt som 84,7% på oberoende, mänskligt-annoterade corpora, jämförbart med ett system utbildat på upp till 40000 ord av mänskligt-annoterade newswire.
REF använder flerspråkiga egenskaper av Wikipedia för att kommentera en stor corpus av text med namngivna Entity taggar.
14,693,554
Mining Wiki Resources for Multilingual Named Entity Recognition
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,409
Abstract-This paper föreslår ett komplett skelett av isolerade Video Based Indian Sign Language Recognition System (INSLR) som integrerar olika bildbehandling tekniker och beräknings intelligens tekniker för att hantera meningsigenkänning. Systemet är utvecklat för att förbättra kommunikationen mellan hörselskadade och normala människor som lovar dem bättre sociala utsikter. En wavelet-baserad videosegmenteringsteknik föreslås som detekterar former av olika handskyltar och huvudrörelser i videobaserad installation. Forma funktioner av handgester extraheras med hjälp av elliptiska Fourier beskrivningar som i högsta grad minskar funktionen vektorer för en bild. Principkomponentanalys (PCA) minimerar fortfarande funktionen vektor för en viss gest video och funktionerna påverkas inte av skalning eller rotation av gester i en video som gör systemet mer flexibelt. Funktioner som genereras med hjälp av dessa tekniker gör funktionen vektor unik för en viss gest. Erkännande av gester från de extraherade funktionerna görs med hjälp av en Sugeno typ fuzzy inference system som använder linjära utdata medlemsfunktioner. Slutligen använder INSLR systemet ett ljudsystem för att spela de erkända gester tillsammans med textutmatning. Systemet testas med hjälp av en datamängd på 80 ord och meningar av 10 olika signers. De experimentella resultaten visar att vårt system har en igenkänningsgrad på 96%. Index Terms-indiskt teckenspråk, luddigt inference system, wavelet transform, canny edge operatör, bildfusion, elliptiska fyrfärgare deskriptorer, principkomponentanalys. Teckenspråket är ett naturligt språk som används för kommunikation av hörselskadade. Ett teckenspråk relaterar bokstäver, ord och meningar i ett talat språk till handtecken och kroppsgester som gör det lättare för hörselskadade människor att kommunicera sinsemellan. Teckenspråksigenkänningssystem utgör en kanal för kommunikation mellan hörselskadade och normala människor. Genom att göra detta system fullt genomförbart kan man skapa arbetstillfällen för hörselskadade inom olika områden av deras intresse. Framsteg när det gäller teckenspråksigenkänning kan till stor del främja forskning inom områdena mänskligt datorgränssnitt. Detta papper ger en ny teknik för att känna igen tecken på indiska teckenspråk med hjälp av wavelet transform och fuzzy inference system. Den huvudsakliga beståndsdelen i varje system för teckenspråksigenkänning är handgester och former som normalt används av döva människor för att kommunicera sinsemellan. En gest definieras som en energisk handrörelse och skapar tecken med dem som alfabet, siffror, ord och meningar. Gester klassificeras i två typ statiska gester och dynamiska gester. Statisk gest hänvisar till vissa mönster av hand och finger orientering där som dynamiska gester innebär olika rörelse och orientering av händer och ansiktsuttryck används till stor del för att känna igen kontinuerlig ström av meningar. Vår metod för gestigenkänning är en visionsbaserad teknik som inte använder rörelsesensorhandskar eller färgade handskar för att systemet ska känna igen handformer. En komplett gestigenkänningssystem kräver förståelse av handformer, fingerorienteringar, handspårning och ansiktsuttryck spårning. Följaktligen klassificeras system för teckenspråksigenkänning i två breda kategorier: sensorhandske baserad [1], [2] och visionsbaserade system [3]. Den första kategorin kräver att undertecknarna bär en sensorhandske eller en färgad handske. Att bära handsken förenklar uppgiften att segmentera under bearbetningen. Handskebaserade metoder lider av nackdelar såsom att undertecknaren måste bära sensorn hårdvara tillsammans med handsken under driften av systemet. Som jämförelse använder visionsbaserade system algoritmer för bildbehandling för att upptäcka och spåra handskyltar samt ansiktsuttryck av undertecknaren, vilket är lättare för undertecknaren utan att bära handskar. Det finns dock precisionsproblem relaterade till bildbehandlingsalgoritmer som är ett dynamiskt forskningsområde. Thad starner föreslog ett amerikanskt teckenspråksigenkänningssystem i realtid med hjälp av bärbar datorbaserad video [4] som använder dold makovmodell (HMM) för att känna igen kontinuerligt amerikanskt teckenspråkssystem. Tecken är modellerade med fyra stater av HMM som har god igenkänningsnoggrannhet. Deras system fungerar bra, men det är inte signer oberoende. M.K.Bhuyan [5] använde handformer och handbanor för att känna igen statiska och dynamiska handtecken från indiska teckenspråk. Det använda begreppet objektbaserad video abstraktion teknik för segmentering av ramar i video objekt plan där handen betraktas som ett video objekt. Deras experimentella resultat visar att deras system kan klassificera och känna igen statiska, dynamiska gester tillsammans med meningar med överlägsen konsekvens. Yu Zhou, Xilin chen [6] föreslog en signeranpassningsmetod som kombinerar maximal en posteriori och iterativa vektorfält utjämning för att minska mängden data och de har uppnått god igenkänningsfrekvens. I detta dokument föreslår vi ett system för erkännande av teckenspråk för att omvandla tecken på indiskt teckenspråk till röstkommandon med hjälp av hand- och huvudgester av människor. [17].................................................................. Test av systemet görs genom att ta prover från 10 olika signers för varje gest. De erkända tecknen är anslutna till datorns ljudutgång med hjälp av MATLAB programvara tillsammans med textutmatning. Slutligen är ett grafiskt gränssnitt byggt för att träna och testa nya skyltar automatiskt av användarna. Indian teckenspråk har inte en standard databas som American Sign Language databas (ASL) som kan nås från internet. Därför har vi beslutat att samla in vår indiska teckenspråksdatabas (ISL) genom att samarbeta nära med det indiska döva samhället och shanti ashramskolan för döva barn, Visakhapatnam. I processen först har vi samlat 80 tecken på alfabet, siffror och ord från indiska teckenspråk. Listan över några av orden visas i tabell I. Videorna filmas i en kontrollerad miljö med hjälp av en Sony cyber shot H7 digital videokamera med en upplösning på 640X480 pixlar som fångar 25 bilder per sekund. För vårt experiment erbjöd sig tio olika signatörer att delta där varje signare uppmanas att upprepa varje gest två gånger under olika ljusförhållanden med totalt 1600 gestvideor för totalt 80 tecken. En video förvärvsprocess utsätts för många miljöförhållanden såsom position kamera, belysning och buller. Den enda begränsningen i vårt system är att undertecknaren måste bära en mörkfärgad fullärmad skjorta med en mörk bakgrund. Det föreslagna systemet har fyra bearbetningssteg med explicit videoförbehandling, bildsegmentering, extrahering och mönsterklassificering. Bilda. 1 visar ramen för den föreslagna metoden. Förbehandlingsstadiet består i huvudsak av två operationer, nämligen bildstorlek och filtrering. RGB-video konverteras till indexerade bildramar. Indexerade videoramar ändrar storlek för att minska upplösningen för att minska bearbetningstiden. Här skalade vi ned upplösningen från 640 och 480 till 256 till 256 bild Bild. 1................................................................ Föreslagen ram för vårt system. Användning av interpoleringsmetoder. RGB bilder består av 3 plan IACSIT International Journal of Engineering and Technology, Vol. Fyra, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 5, oktober 2012 538 och bearbetning innebär manipulering av alla tre plan samtidigt som bearbetningstiden förbrukas. Därför konverteras RGB indexerade videoramar till gråskala indexerade videoramar genom att bilda en viktad summa av R, G och B komponenter för att minska komplexiteten. Ytterligare Gaussian low pass filter appliceras på den grå skala bilden för att ta bort högfrekventa buller och släta ut bildramarna. Bilda. 2 visar alla förbearbetningstekniker som tillämpas på indexerade ramar av skylt "A". Segmentering på icke triviala videoramar bestämmer framgång eller misslyckande av någon datoriserad analys förfaranden. Segmentering sker genom sammansmältning av diskreta wavelettransform (DWT) och canny-drivna bilder. Denna fusionsteknik ger entydiga sanna kanter jämfört med vilken kantdetektionsalgoritm som helst. På den filtrerade bilden appliceras canny edge detektor. Canny edge detektor utför följande operationer på bilden som, bild utjämning med en Gaussian filter, beräkning lutning och vinkel, tillämpa icke maxima dämpning till lutningen av bilden, använda dubbel tröskel och anslutningsanalys för att upptäcka och länka kanter. Bilden av kannykanten som detekterats och som applicerats på en enda skyltram visas i bild. 3............................................................... Som vi kan observera några oönskade linjer nära händer och hals som är falska kanter om vårt experiment. Vi är intresserade av att utvinna huvud- och handdelar för vidare bearbetning som uppnås genom att blanda canny med diskret wavelettransform. Anta bild sönderdelning modell av wavelet transform, den ursprungliga gråskalan bilden kan delas in i låg frekvens, hög frekvens och diagonal information. Vidare är den lågfrekventa underbilden sub indelad i lågfrekventa, högfrekventa och diagonala bilder med hjälp av daubechies familj av wavelets. De verkliga kanterna på bilden är inbäddade i högfrekventa komponenter av bilden tillsammans med buller. Fuse Lågfrekvent sub bild rekonstruerade wavelet koefficienter och canny bild genom summering. På den erhållna sammanslagen bild ram tröskel tillämpas med hjälp av Otsu"s algoritm som resulterar i en kantad bild. Resultatet av segmenteringen visas i bild. 4........................................... Segmenteringen ger en låg data i form av pixlar längs en gräns eller pixlar som finns i en region. Vi är främst intresserade av gräns pixlarna som är handformer av undertecknaren. För att extrahera form kontur med minsta antal pixlar för en bildram utan att förlora forminformation väljer vi Fourier Descriptors. Fourier deskriptorer tillskriver ofta tidigt arbete av cosgriff (1960), gör det möjligt för oss att få kraften i Fourier teori att forma beskrivningen. Den grundläggande idén med Fourier deskriptorer är att karakterisera en kurva med en uppsättning tal som representerar frekvensinnehållet i en hel form. Fouriers deskriptorer låter oss välja en liten uppsättning siffror som beskriver en form för en bildram. Denna egenskap Fourier deskriptorer är till hjälp eftersom dessa Fourier koefficienter bär form information som inte är okänslig för översättning, rotation och skalförändringar. Men förändringarna i dessa parametrar kan relateras till omvandlingar på deskriptorer. Fourier representationer artikuleras i termer av ortogonala basfunktioner, vilket gör att parametrarna skiljer sig åt och därmed undviker redundans. Gränsen mellan händer och huvud eller dess kontur kan representeras av slutna kurvor. Som ett resultat av kurvornas periodicitet projicering på den vertikala och horisontella axeln använde vi elliptiska fyrkantigare representationer för att modellera hand- och huvudkonturerna. De elliptiska fyrkantiga deskriptorerna för en sluten kontur definieras som Engineering and Technology, Vol. Fyra, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 5, oktober 2012 539 Således alla slutna kurva kan modelleras med sina fyraier koefficienter (a 0, c 0, a k, b k, c k, d k ). Där k representerar ellipsets rang och för k=1 motsvarar den slutna kurvans grundläggande komponent. För att passa exakt på bilden sluten kurva måste man anställa mer än en ellips för att göra det. Ur geometrisk synvinkel är en enkel ellips modellerad av ekvationen där A är semi-huvudaxel orienterad i horisontell axelriktning och B är semi-mindre axel orienterad i vertikal axel. Utgångspunkten för modellen ligger med en halv huvudaxel. Med tanke på den rationella vinkeln och fasförskjutningen från huvudaxeln får vi en mer omfattande representation av ellipsen som där Eq(3) blir Från ovanstående ekvation kan vi skriva de fyra högre koefficienterna av k där A k, B k, K, K är mer förståeliga parametrar av samma ellips och förhållandet mellan dessa inställda parametrar kan beräknas. Tomten med olika fyrtalskoefficienter tillsammans med sikten över huvud- och handkonturerna visas i bild. 6............................................................. För en typisk video av undertecknaren med 45 ramar får vi en matris av 45 till 20 värden som representerar formen information om händer och huvud. För 80 tecken blir vår funktion vektorstorlek mycket stor och förbrukar mer bearbetningstid i nästa steg. Därför behandlar vi den nuvarande vektorn med hjälp av principkomponentanalys (PCA) som använder faktorisering för att omvandla data enligt dess statistiska egenskaper. Denna datatransformation är särskilt användbar för klassificeringsproblem när datamängden är mycket stor. I den erhållna funktionsmatrisen definierar varje kolumn i matrisen en funktionsvektor. För klassificeringsproblem väljer vi funktioner med stora variansvärden. Till att börja med, databasen är en 80-80 matris som består av 80 funktion vektorer och varje kolumn representerar en viss tecken video. Denna funktionsmatris kommer att användas för att träna fuzzy inference system. För mönsterklassificering ansåg vi Takagi-sugeno-kang (TSK) eller helt enkelt sugeno typ Fuuzy inference system [18]-[23] eftersom utdata medlemsfunktioner är linjära eller constsnt. Sugeno fuzzy inference system består av fiv steg, fuzzification av inmatningsvariabler, tillämpa fuzzy "och" eller "eller" operatör, beräkna regelvikterna, beräkna utdatanivån och slutligen defuzzification. Många metoder föreslås för att generera suddig regelbas. Grundidén är att studera och skapa de optimala regler som krävs för att kontrollera inmatningen utan att äventyra kvaliteten på kontrollen. I detta papper generering av fuzzy regelbas görs genom subtraktiv klusterteknik i sugeno fuzzy metod för klassificering video. Cluster center som finns i träningsdata är punkter i funktionen utrymme vars grannskap kartor in i den givna klassen. Varje klustercenter översätts till en luddig IACSIT International Journal of Engineering and Technology, Vol. Fyra, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 5, oktober 2012 540 regel för att identifiera klassen. En generaliserad typ-I TSK modell kan beskrivas med fuzzy IF-THEN regler som representerar indata utdata relationer i ett system. För multi indata singelutgång första ordningen typ-I TSK kan uttryckas som IF xi är Q lk och x 2 är Q 2k och... och x n är Q nk, Then Z är Klassificering av olika gester görs med Fuzzy inference system för 80 olika gester av indiska teckenspråk med 10 olika signers. I tabell III ges uppgifter om det fuzzy inference-system som används för gestens klassificering. Bilda. 7 visar input-medlemsfunktionerna. Systemets prestanda utvärderas utifrån dess förmåga att korrekt klassificera tecken till motsvarande talklass. Erkännandegraden definieras som förhållandet mellan antalet korrekt klassificerade tecken och det totala antalet tecken: Alla engelska alfabet, Numbers, ko, åsna, anka, påfågel, fett, fjäder, dum, rolig, bo, vad, kråka, ung, uppåt, mot, kom, god, kärlek, mor, far, vart är du på väg, gör ditt hem arbete etc. Det totala antalet tecken som används för testning är 80 från 10 olika signers och systemigenkänningsgraden är nära 96%. Systemet implementerades med MATLAB version 7.0.1. I den här tidningen utvecklade vi ett system för att känna igen en delmängd av det indiska teckenspråket. Arbetet utfördes genom att träna ett fuzzy inference system genom att använda funktioner som erhållits med hjälp av DWT och elliptical fourier deskriptorer med 10 olika signer videor för 80 tecken med en igenkänningsgrad på 96%. I framtiden tittar vi på att utveckla ett system för indiska teckenspråk som fungerar i realtid. CVGIP, vol. 18, s. 236-258, 1982 [10] C. C. Linand R. Chellappa, "Klassificering av partiella 2D-former med hjälp av fyra mer deskriptorer", IEEE Trans. PAMI, vol. Nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, 5, s. 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; svensk specialutgåva, område 5; s. 686-690, 1987. [11] E. Persoon och K.-S. Fu, "Shape description using fourier deskriptors", IEEE Trans. SMC, vol. Tre, sju, fem, fem, fem, fem, fem, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fem, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fem, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, tre, 170-179, 1977 [12] M. Sugeno, "En inledande undersökning av luddig kontroll", Informera. Sci., vol. 36, s. 59-83, 1985. [13] C. C. Lee, "Fuzzy logik i styrsystem: Fuzzy logik controller-del I och del II", IEEE Trans. Syst., Man, Cybem., vol. Tjugo, nej. 2 s. 404-435, 1990. [14] T. Takagi och M. Sugeno, "Fuzzy identifiering av system och dess tillämpningar för modellering och styrning", IEEE Trans. Syst., Man, Cybern., vol. Femton, nej. Ett, ett, två, två, tre, tre, tre, tre, tre, tre, tre, tre, tre, fyra, tre, fyra, fyra, fyra, fyra, tre, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, tre, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, fyra, 116-132, 1985. [15] L. X. Wang och I. M. Mendel, "Generera luddiga regler genom att lära sig av exempel", IEEE Trans. Syst., man, cyben. vol. 22, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej, nej. 6 s. Tillverkning utgående från material enligt vilket HS-nummer som helst, utom material enligt samma HS-nummer som produkten
I REF föreslås ett wavelet-baserat videodelningsförfarande som identifierar tillstånd av olika handskyltar och huvudutveckling i videobaserad inställning.
2,920,018
A Video Based Indian Sign Language Recognition System (INSLR) Using Wavelet Transform and Fuzzy Logic
{'venue': None, 'journal': 'International journal of engineering and technology', 'mag_field_of_study': ['Computer Science']}
10,410
Malware är alla skadliga kod som har potential att skada någon dator eller nätverk. Mängden malware ökar snabbare varje år och utgör ett allvarligt säkerhetshot. Således, malware upptäckt är ett kritiskt ämne i datorsäkerhet. För närvarande, signatur-baserad detektion är den mest utvidgade metoden för att upptäcka skadlig kod. Även om denna metod fortfarande används på de flesta populära kommersiella dator antivirusprogram, kan det bara uppnå detektion när viruset redan har orsakat skador och det är registrerat. Därför misslyckas det att upptäcka nya malware. Genom att tillämpa en metod som visat sig framgångsrik i liknande problem-domäner, föreslår vi användning av ngrams (varje delsträng av en större sträng, av en fast längd n) som filsignaturer för att upptäcka okänd malware samtidigt hålla lågt falskt positivt förhållande. Vi visar att n-gram signaturer ger ett effektivt sätt att upptäcka okänd malware.
Santos m.fl. REF visade att N-gramsignaturer kunde användas för att upptäcka okänd skadlig kod.
9,326,955
N-GRAMS-BASED FILE SIGNATURES FOR MALWARE DETECTION
{'venue': 'ICEIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,411
Vi presenterar en strategi för att lära sig en tät pixel-vis märkning från bild-nivå taggar. Varje tagg på bildnivå medför begränsningar för utmatningsmärkningen av en klassificering av Convolutional Neural Network (CNN). Vi föreslår Constrad CNN (CCNN), en metod som använder en ny förlustfunktion för att optimera för varje uppsättning linjära begränsningar på utdatautrymmet (dvs. Beräknad märkningsdistribution) för ett KN-nummer. Vår förlustformulering är enkel att optimera och kan införlivas direkt i standard stokastisk lutning nedstigning optimering. Huvudidén är att formulera träningsmålet som en bikonvex optimering för linjära modeller, som vi sedan kopplar av till ickelinjära djupa nätverk. Omfattande experiment visar hur allmän vår nya inlärningsram är. Den begränsade förlusten ger toppmoderna resultat på svagt övervakad semantisk bildsegmentering. Vi visar vidare att tillägg av något mer handledning kan avsevärt förbättra prestandan hos inlärningsalgoritmen.
I REF tillämpas begränsningar med hjälp av en specifik förlustfunktion i svagt övervakade bildsegmenteringar.
2,359,761
Constrained Convolutional Neural Networks for Weakly Supervised Segmentation
{'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
10,412
Abstract-Pose SLAM är varianten av samtidig lokalisering och kartbyggnad (SLAM) är varianten av SLAM, där endast robotbanan uppskattas och där landmärken endast används för att producera relativa begränsningar mellan robotposer. För att minska den beräknade kostnaden för informationsfiltrets form av Pose SLAM och samtidigt fördröja inkonsekvensen så mycket som möjligt, inför vi en strategi som endast tar hänsyn till mycket informativa sling-closure länkar och icke-redundanta poser. Detta tillvägagångssätt inkluderar konstanta tidsprocedurer för att beräkna avståndet mellan poser, den förväntade informationsvinsten för varje potentiell länk, och de exakta marginella kovarianserna när du rör dig i öppen slinga, samt ett förfarande för att återställa tillståndet efter en slinga stängning som, i praktiska situationer, skalar linjärt i termer av både tid och minne. Med hjälp av dessa procedurer, roboten fungerar för det mesta i öppen loop, och kostnaden för loop stängning är amortized över långa banor. På detta sätt, den beräkningsmässiga flaskhalsen skiftar till data association, som är sökningen över den uppsättning av tidigare besökta innebär att fastställa bra kandidater för sensor registrering. För att snabba upp data association, introducerar vi en metod för att söka efter närliggande poser vars komplexitet sträcker sig från logaritmiska i det vanliga fallet till linjära i degenererade situationer. Metoden är baserad på att organisera pose information i ett balanserat träd vars inre nivåer definieras med hjälp av intervall aritmetisk. Den föreslagna Pose-SLAM-metoden valideras genom simuleringar, verkliga kartläggningssessioner och experiment med hjälp av standard SLAM-datauppsättningar. Index Terms-Information filter, informationsvinst, intervall aritmetik, Pose SLAM, tillståndsåterställning, träd-baserad data association.
Ila m.fl. I REF föreslås att endast icke-redundanta situationer och informativa begränsningar som grundar sig på det relativa avståndet mellan poser i informationsutrymme och den förväntade informationsvinsten från stängningar av kandidatslingor.
4,811,255
Information-Based Compact Pose SLAM
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,413
I den här artikeln överväger vi problemet med att utforska en okänd miljö med ett team av robotar. Som i en-robot prospektering är målet att minimera den totala prospekteringstiden. Det viktigaste problemet som ska lösas i samband med flera robotar är att välja lämpliga målpunkter för de enskilda robotarna så att de samtidigt utforskar olika regioner i miljön. Vi presenterar en strategi för samordning av flera robotar, som samtidigt tar hänsyn till kostnaden för att nå en målpunkt och dess nytta. När en målpunkt tilldelas en specifik robot minskar nyttan av det outforskade område som är synligt från denna målposition. På så sätt tilldelas de enskilda robotarna olika målplatser. Vi beskriver vidare hur vår algoritm kan utvidgas till situationer där robotarnas kommunikationsområde är begränsat. Vår teknik har implementerats och testats i stor utsträckning i verkliga experiment och simuleringskörningar. Resultaten visar att vår teknik effektivt distribuerar robotarna över miljön och gör det möjligt för dem att snabbt utföra sitt uppdrag.
Den samordnade multi-robot prospektering (CME) är gränsbaserad med betoning på samarbete med ett team av robotar REF.
6,929,713
Coordinated multi-robot exploration
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
10,414
Med utvecklingen av högeffektiv grafdatainsamlingsteknik inom många tillämpningsområden framträder klassificering av grafdata som ett viktigt ämne inom datautvinning och maskininlärning. Mot att bygga mycket noggranna klassificeringsmodeller för grafdata, här presenterar vi en effektiv graf funktion val metod. I vår metod använder vi ofta subgrafer som funktioner för grafklassificering. Olika från befintliga metoder, anser vi den rumsliga fördelningen av subgraffunktioner i grafdata och välj de som har konsekvent rumslig plats. Vi har tillämpat vår funktion urvalsmetoder på flera cheminformatiska riktmärken. Vår metod visar en betydande förbättring av förutsägelser jämfört med de senaste metoderna.
Spatial distribution av subgrafer används som funktioner i REF.
1,690,852
Structure feature selection for graph classification
{'venue': "CIKM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,415
Abstrakt. Topologiigenkänning är en av de grundläggande distribuerade uppgifterna i nätverken. Varje nod i ett anonymt nätverk måste deterministiskt producera en isomorf kopia av den underliggande grafen, med alla portar korrekt markerade. Denna uppgift är vanligtvis ogenomförbar utan någon föregående information. Sådan information kan lämnas till noderna som råd. Ett orakel som känner nätverket kan ge en (eventuellt annorlunda) sträng av bitar till varje nod, och alla noder måste rekonstruera nätverket med hjälp av detta råd, efter ett givet antal rundor av kommunikation. Under varje runda kan varje nod utbyta godtyckliga meddelanden med alla sina grannar och utföra godtyckliga lokala beräkningar. Tiden för att slutföra topologi erkännande är antalet rundor det tar, och storleken på råd är den maximala längden på en sträng ges till noder. Vi undersöker kompromisser mellan den tid då topologiigenkänning uppnås och den minsta storleken på råd som måste ges till noder. Vi tillhandahåller övre och nedre gränser på minsta storlek av råd som är tillräckligt för att utföra topologiigenkänning under en given tid, i klassen av alla grafer av storlek n och diameter D ≤ αn, för varje konstant α < 1. I de flesta fall är våra gränser asymptotiskt snäva. Närmare bestämt, om den tilldelade tiden är D − k, där 0 < k ≤ D, då är den optimala storleken på rådgivningen och (n 2 log n)/(D − k + 1)). Om den tilldelade tiden är D, då är den här optimala storleken till (n log n). Om den tilldelade tiden är D + k, där 0 < k ≤ D/2, då är den optimala storleken på rådgivningen. (1 + (log n) / k). Den enda återstående klyftan mellan våra gränser är för tid D + k, där D/2 < k ≤ D. I detta tidsintervall förblir vår övre gräns O (1 + (log n) / k), medan den nedre gränsen (som håller för varje tid) är 1. Detta lämnar en lucka om D och o(log n). Slutligen visar vi att för tid 2D + 1, en bit av råd är både nödvändigt och tillräckligt. Våra resultat visar hur känslig den minsta storleken av råd för den tid som medges för topologi erkännande: tillåter bara en runda mer, från D till D + 1, minskar exponentiellt de råd som behövs för att utföra denna uppgift.
I REF studerade författarna problemet med topologi erkännande med råd ges till noder.
17,424,492
Use knowledge to learn faster: Topology recognition with advice ⋆
{'venue': 'DISC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,416
ABSTRACT Den utbredda användningen av mobila nätverksenheter, såsom smarta telefoner och surfplattor, har avsevärt ökat antalet noder i de operativa nätverken. Dessa enheter lider ofta av brist på kraft och bandbredd. Därför måste vi optimera deras budskap routing för att maximera deras kapacitet. Den optimala rutten bygger dock vanligtvis på en känslig balans mellan olika och ofta motstridiga mål, såsom förseningen av rutten och energiförbrukningen. Nätverksdesignen måste också ta hänsyn till nodernas användarcentrerade sociala beteende. Därför blir det absolut nödvändigt att skapa socialt medvetna lastbalanser för att undvika att flaskhalsar uppstår i nätets paketflöden. I detta dokument föreslår vi en ny algoritm, kallad multi-objektive decomposition quantumoptimation (MODQO) algoritm, som utnyttjar kvantparallalismen till sin fulla potential genom att minska databas korrelationer för att utföra multi-objektive routing optimering, samtidigt balansera teletrafik belastningen bland noderna utan att införa en betydande försämring av nätets fördröjning och strömförbrukning. Dessutom introducerar vi en ny socialt medveten lastbalanseringsmätare, nämligen den normaliserade entropin i den normaliserade sammansättningen av det associerade socialt medvetna nätet, för att åstadkomma en bättre avvägning mellan nätets fördröjning och strömförbrukningen. Vi kan analytiskt bevisa att MODQO-algoritmen uppnår full sökningsbaserad noggrannhet med en avsevärt minskad komplexitet, vilket är flera storleksordningar lägre än den fullständiga sökningen. Slutligen jämför vi MODQO algoritmen med den klassiska icke-dominerade sortgenetiska algoritmen II evolutional algoritm och visar att MODQO lyckas halvera nätverkets genomsnittliga fördröjning, samtidigt som den minskar nätets genomsnittliga energiförbrukning med 6 dB utan att öka komplexiteten i beräkningen. INDEX TERMS DTNs, routing, lastbalansering, kvantdata, NDQIO, BBHT-QSA, DHA, Grovers QSA, NSGA-II.
Alanis m.fl. REF föreslog optimerade lösningar för ett social-aware-nätverk med multi-objektiv routing och lastbalansering.
21,555,126
Quantum-Assisted Joint Multi-Objective Routing and Load Balancing for Socially-Aware Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
10,417
Upptäckten och analysen av samhällsstrukturen i nätverk är ett ämne av stort nytt intresse inom fysikvärlden, men de flesta metoder som hittills föreslagits är olämpliga för mycket stora nätverk på grund av deras beräkningskostnader. Här presenterar vi en hierarkisk tätbebyggelsealgoritm för att upptäcka samhällsstruktur som är snabbare än många konkurrerande algoritmer: dess körtid på ett nätverk med n hörn och m kanter är O(md log n) där d är djupet av dendrogram som beskriver samhällsstrukturen. Många verkliga nätverk är glesa och hierarkiska, med m på n och d på log n, i vilket fall vår algoritm körs i huvudsak linjär tid, O(n log 2 n). Som ett exempel på tillämpningen av denna algoritm använder vi den för att analysera ett nätverk av objekt till salu på webbplatsen för en stor online återförsäljare, objekt i nätverket länkas om de ofta köps av samma köpare. Nätverket har över 400 000 hörn och 2 miljoner kanter. Vi visar att vår algoritm kan extrahera meningsfulla samhällen från detta nätverk, avslöjar storskaliga mönster som finns i kundernas köpvanor.
I sin snabbare version, som kallas CNM REF, minskas körtiden till O(md log n), där d är djupet av dendrogram som beskriver nätverkets samhällsstruktur.
8,977,721
Finding community structure in very large networks
{'venue': 'Phys. Rev. E 70, 066111 (2004)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']}
10,418
Forskning på utbildningsområdet har ofta kritiserats för brist på teoretisk grund. I denna artikel föreslår vi en konceptuell ram för utbildningsteknik genom att bygga vidare på Shulmans formulering av "pedagogisk innehållskunskap" och utvidga den till att omfatta fenomenet lärare som integrerar teknik i sin pedagogik. Ramverket är resultatet av 5 års arbete med ett forskningsprogram inriktat på lärarutveckling och fakultetsutveckling inom högre utbildning. Den försöker fånga upp några av de grundläggande egenskaperna hos lärarkunskap som krävs för teknisk integration i undervisningen, samtidigt som den tar upp den komplexa, mångfacetterade och lokaliserade karaktären hos denna kunskap. Vi hävdar, kort sagt, att tankeväckande pedagogiska användningar av teknik kräver utveckling av en komplex, belägen form av kunskap som vi kallar Teknologisk Pedagogisk Content Knowledge (TPCK). Genom att göra det antar vi de komplexa rollerna och samspelet mellan tre huvudkomponenter i inlärningsmiljöer: innehåll, pedagogik och teknik. Vi hävdar att denna modell har mycket att erbjuda diskussioner om teknisk integration på flera nivåer: teoretiska, pedagogiska och metodologiska. I den här artikeln beskriver vi teorin bakom vårt ramverk, ger exempel på vår undervisningsstrategi baserad på ramverket och illustrerar de metodologiska bidrag som har blivit resultatet av detta arbete. Det viktiga inom vetenskapen är inte så mycket att få fram nya fakta som att upptäcka nya sätt att tänka på dem. -Sir William Henry Bragg Tillkomsten av digital teknik har dramatiskt förändrat rutiner och praxis i de flesta arenor av mänskligt arbete. Förespråkare för teknik i utbildningen planerar ofta liknande dramatiska förändringar i undervisningsprocessen Utbildning, 2000; Zhao, 2003). Det har dock blivit uppenbart att vårt primära fokus bör vara att studera hur tekniken används (Carr, Jonassen, Litzinger, & Marra, 1998; Mishra & Koehler, 2003). En del av denna tillsyn kan tillskrivas bristen på teoretisk grund för att utveckla eller förstå denna integrationsprocess (American Association for the Advancement of Science, 1999Science,, 2001 Issroff & Scanlon, 2002; Selfe, 1990). Den mesta utbildningstekniska forskningen består av fallstudier, exempel på bästa praxis eller implementeringar av nya pedagogiska verktyg. Naturligtvis är goda fallstudier, detaljerade exempel på bästa praxis och utformning av nya verktyg för lärande viktiga för att skapa förståelse. Men de är bara de första stegen mot utvecklingen av enhetliga teoretiska och konceptuella ramar som skulle göra det möjligt för oss att utveckla och identifiera teman och konstruktioner som skulle gälla i olika fall och exempel på praktik. Som Selfe hävdade, [ett] teoretiskt perspektiv. ..................................................................................................... Tills vi undersöker effekterna av datorteknik. .. ur ett teoretiskt perspektiv kommer vi att fortsätta, myopiskt och osystematiskt, att definiera de isolerade pusselbitarna i våra separata klassrum och diskreta forskningsstudier. Tills vi delar någon teoretisk vision av detta ämne, kommer vi aldrig att få se den större bild som skulle kunna ge vårt dagliga klassrums arbete riktning och mening. (s. 119) Att utveckla teori för utbildningsteknik är svårt eftersom det kräver en detaljerad förståelse av komplexa relationer som är kontextuellt bundna. Dessutom är det svårt att studera orsak och verkan när lärare, klassrum, politik och läroplansmål varierar från fall till fall. Ett tillvägagångssätt, som kallas designexperiment, hedrar denna komplexitet och har nyligen fått en framträdande plats i pedagogisk forskning (Brown, 1992; Cobb, Confrey, diSessa, Lehrer, & Schauble, 2003; Designbaserad forskning 1018 Lärare College Record Collective, 2003. Designexperiment, som en forskningsmetodik, betonar det detaljerade genomförandet och studiet av interventioner med utvecklande pedagogiska mål i rika autentiska miljöer. Den erkänner klassrumsundervisningens komplexitet och upplyser både praktiker och forskare genom att leda till utveckling av teoretiska idéer baserade i praktiksammanhang; designexperiment minskar klyftan mellan forskning och praktik, mellan teori och tillämpning. Under de senaste 5 åren har vi varit involverade i att genomföra ett designexperiment som syftar till att hjälpa oss att förstå lärarnas utveckling mot rik användning av teknik samtidigt som vi hjälper lärare-både K-12-lärare och universitetsfakultet-utveckla sin undervisning med teknik. Detta arbete har informerat teori och praktik och har representerats genom en rad publikationer. Vårt arbete har varit inriktat på teoretiker och forskare, såväl som praktiker och pedagoger. Vi har publicerat detta verk i teorins namn (Ferdig, Mishra, & Zhao, 2004; Mishra, Koehler, & Zhao, i pressen; Mishra, Zhao, & Tan, 1999) I den här artikeln kliver vi tillbaka från de individuellt publicerade styckena för att erbjuda en fågelögonblick av den konceptuella ram som har vuxit fram ur denna kropp av arbete. Detta är just ett av de viktigaste målen med att genomföra designexperiment: att inte bara använda teori för att ge en motivering för ingripandet eller för att tolka resultat utan också för att hjälpa till att "utveckla en klass av teorier om både inlärningsprocessen och de medel som är utformade för att stödja lärandet" (Cobb m.fl., 2003). Att ha en ram går längre än att bara identifiera problem med nuvarande tillvägagångssätt; den erbjuder nya sätt att se på och uppfatta fenomen och erbjuder information som kan ligga till grund för ett sunt, pragmatiskt beslutsfattande. I detta särskilda sammanhang går konsekvenserna av att utveckla en ram utöver ett enhetligt sätt att tänka på teknisk integration. Vi hävdar att en konceptuellt baserad teoretisk ram om förhållandet mellan teknik och undervisning kan förändra konceptualiseringen och praktiken av lärarutbildning, lärarutbildning och lärarnas professionella utveckling. Det kan också ha en betydande inverkan på de typer av forskningsfrågor som vi undersöker. I de följande avsnitten kommer vi att behandla dessa relaterade frågor i följande ordning: (1) Vi introducerar ramverket för tekniskt pedagogiskt innehåll (TPCK) för att tänka på lärarkunskap och hur det informerar debatten om vad lärare behöver veta (och hur de kan utveckla den); (2) vi visar hur vårt pedagogiska förhållningssätt till lärares tekniska pedagogiska innehåll Kunskap 1019 professionell utveckling, lärande teknik genom design, leder till utvecklingen av TPCK; och (3) vi diskuterar, och ger exempel på, hur detta ramverk har väglett vår forskning och analys av effektiviteten i vårt pedagogiska förhållningssätt. Ett ytterligare mål med denna artikel är att erbjuda ett exempel på ett forskningsprogram som sammanför det pragmatiska och det teoretiska, det praktiska och det abstrakta. Vi hoppas kunna visa att kraften i detta mångfacetterade program ligger i att kombinera dessa olika tillvägagångssätt och i dess förmåga att tala med både forskare och utövare. Grunden för vårt ramverk är förståelsen att undervisning är en mycket komplex verksamhet som bygger på många typer av kunskap. Undervisning är en komplex kognitiv skicklighet som förekommer i en illastrukturerad, dynamisk miljö (Leinhardt & Greeno, 1986; Spiro, Coulson, Feltovich, & Anderson, 1988; Spiro, Feltovich, Jacobson, & Coulson, 1991). Liksom expertis inom andra komplexa områden, inklusive medicinsk diagnos (Lesgold, Feltovich, Glaser, & Wang, 1981; Pople, 1982), schack (Chase & Simon, 1973; Wilkins, 1980), och skrivande (Hayes & Flower, 1980; Hillocks, 1986), kompetens inom undervisning är beroende av flexibel tillgång till välorganiserade kunskapssystem (Glaser, 1984; Putnam & Borko, 2000; Shulman, 1986 Shulman,, 1987. Det finns helt klart många kunskapssystem som är grundläggande för undervisningen, inklusive kunskap om studenttänkande och lärande, och kunskap om ämnen. Historiskt sett har lärarutbildningens kunskapsbaser fokuserat på lärarens innehållskunskap (Shulman, 1986; Kal & MaKinster, 1999). På senare tid har lärarutbildningen förskjutit sitt fokus främst till pedagogik och betonat allmän pedagogiska klassrumspraktiker oberoende av ämne och ofta på bekostnad av innehållskunskap (Ball & McDiarmid, 1990). Vi kan representera detta bifurkerade sätt att se på lärarkunskap som två cirklar oberoende av varandra (Figur 1 ). För 1020 Lärare College Rekordexempel, olika metoder för lärarutbildning har betonat ett eller annat område av kunskap, med fokus på kunskap om innehåll (C) eller kunskap om pedagogik (P). Shulman (1986) avancerat tänkande om lärarkunskap genom att introducera idén om pedagogisk innehållskunskap (PCK). Han hävdade att fokuseringen på lärarnas ämneskunskap och pedagogik behandlades som ömsesidigt uteslutande områden inom forskning som berör dessa områden (Shulman, 1987). Den praktiska konsekvensen av en sådan uteslutning var produktion av lärarutbildningar där fokus låg på antingen ämne eller pedagogik. För att ta itu med denna dikotomi föreslog han att man skulle överväga det nödvändiga förhållandet mellan de två genom att införa begreppet PCK. PCK finns i skärningspunkten mellan innehåll och pedagogik. Den går således utöver ett enkelt övervägande av innehåll och pedagogik isolerat från varandra. PCK representerar en blandning av innehåll och pedagogik till en förståelse av hur specifika aspekter av ämnestillhörighet organiseras, anpassas och representeras för undervisning. Shulman (1986) hävdade att det, även om det var nödvändigt med kunskaper i ämnen och allmänna pedagogiska strategier, inte räckte för att tillägna sig goda lärares kunskaper. För att karakterisera de komplexa sätt på vilka lärare tänker på hur särskilt innehåll ska läras ut, argumenterade han för "pedagogisk innehållskunskap" som den innehållskunskap som behandlar undervisningsprocessen, inklusive "sätten att representera och formulera det ämne som gör det begripligt för andra" (s. 9). För att lärarna skall bli framgångsrika måste de samtidigt ta itu med båda frågorna (innehåll och pedagogik) genom att ge uttryck för "de aspekter av innehållet som är mest lärorika" (s. 9). I hjärtat av PCK är det sätt på vilket ämnet omvandlas för undervisning. Detta inträffar när läraren tolkar ämnet och hittar olika sätt att representera det och göra det tillgängligt för elever. Begreppet PCK har utvidgats och kritiserats av forskare efter Shulman (till exempel Cochran, King, & DeRuiter, 1993; van Driel, Verloop, & De Vos, 1998). Faktum är att Shulmans (1986) inledande beskrivning av lärarkunskap omfattade många fler kategorier, såsom läroplanskunskap och kunskap i utbildningssammanhang. Saker och ting kompliceras ytterligare av det faktum att Shulman själv har föreslagit flera listor, i olika publikationer, som i sina egna ord saknar ""stor överensstämmelse mellan artiklar"" (s. 8). Vår betoning på PCK bygger på Shulmans erkännande av att pedagogiskt innehållskunnande är av särskilt intresse eftersom det identifierar de distinkta kunskapskropparna för undervisning. Den representerar en blandning av innehåll och pedagogik till en förståelse av hur särskilda ämnen, problem eller frågeställningar organiseras, representeras och tekniskt pedagogiskt innehåll Kunskap 1021 anpassad till elevers olika intressen och förmågor, och presenteras för undervisning. (s. 8) Vår betoning på PCK stämmer överens med arbetet i många andra forskare och nyligen genomförda utbildningsreformdokument. Sedan PCK infördes 1987 har det blivit ett allmänt användbart och använt begrepp. På området vetenskaplig utbildning har till exempel forskare som Anderson och Mitchner (1994) ; Hewson och Hewson (1988); Cochran, King och DeRuiter (1993) ; och yrkesorganisationer som National Science Teachers Association (NSTA, 1999) och National Council for the Ackreditering of Teacher Education (NCATE, 1997) alla betonat värdet av PCK för lärarförberedelser och lärarproffsutveckling. En analys av Teacher Educator's Handbook (Murray, 1996) visar Shulman som den fjärde mest citerade författaren till de närmare 1 500 författarna i bokens författare index, med en överväldigande majoritet av de hänvisningar som gjorts till detta begrepp PCK (Segall, 2004). Begreppet PCK sedan dess introduktion 1987 har genomsyrat stipendiet som handlar om lärarutbildning och ämnet utbildning (se exempelvis Ball, 1996; Cochran, King, & DeRuiter, 1993; Grossman, 1990; Ma, 1999; Shulman, 1987; Wilson, Shulman, & Richert, 1987). Det värderas som ett epistemologiskt koncept som på ett nyttigt sätt blandar de traditionellt separerade kunskapsbaserna av innehåll och pedagogik. Vi kan representera Shulmans bidrag till stipendiet av lärarkunskap diagrammatiskt genom att ansluta de två cirklarna i figur 1 så att deras skärningspunkt representerar PCK som samspelet mellan pedagogik och innehåll (se figur 2). I Shulmans (1986) ord innehåller denna skärningspunkt inom den ""de mest regelbundet undervisade ämnena i ens ämnesområde, de mest användbara formerna av representation av dessa idéer, de mest kraftfulla analogier, illustrationer, exempel, förklaringar, och demonstrationer-i ett 1022 Lärare College Record ord, sätt att representera och formulera ämnet som gör det begripligt för andra" (s. 9). Även om Shulman inte diskuterade teknik och dess relation till pedagogik och innehåll, anser vi inte att dessa frågor ansågs oviktiga. När Shulman först gjorde sitt argument, frågor kring teknik var inte förgrundad i den utsträckning som de är idag. Traditionella klassrum använder en mängd olika tekniker, från läroböcker till overheadprojektorer, från skrivmaskiner i engelska klassrum till diagram över periodiska tabeller på laboratorieväggarna. Fram till nyligen hade dock de flesta tekniker som används i klassrum översatts med "transparent" (Bruce & Hogan, 1998), eller med andra ord, de hade blivit alldagliga och betraktades inte ens som teknik. Den vanligaste användningen av teknik avser däremot digitala datorer och datorprogram, artefakter och mekanismer som är nya och ännu inte en del av det allmänna. Även om Shulmans tillvägagångssätt fortfarande är sant, är det som har förändrats sedan 1980-talet att tekniken har kommit i främsta ledet i undervisningen främst på grund av tillgången till en rad nya, i första hand digitala, tekniker och krav för att lära sig tillämpa dem på undervisning. Dessa nya tekniker innehåller hårdvara och programvara som datorer, pedagogiska spel och Internet och de otaliga program som stöds av det. Dessa nya tekniker har förändrat klassrummets karaktär eller har potential att göra det. Betrakta de aspekter eller exempel som Shulman tillhandahöll som viktiga för PCK, såsom ""de mest kraftfulla analogier, illustrationer, exempel, förklaringar och demonstrationer", eller, med andra ord, ""sätten att representera och formulera subjekt"" för att göra det mer tillgängligt och begripligt. Det är uppenbart att teknik spelar en avgörande roll i var och en av dessa aspekter. Från ritningar på en svarttavla eller interaktiva multimediasimuleringar till etsningar på en lertavla eller webbaserade hypertexts till pumpmetaforen i hjärtat eller datormetaforen i hjärnan, teknologier har begränsat och gett en rad representationer, analogier, exempel, förklaringar och demonstrationer som kan bidra till att göra ämnet mer tillgängligt för eleven. Även om inte alla lärare har anammat dessa nya tekniker av en rad skäl - inklusive en rädsla för förändring och brist på tid och stöd - det faktum att dessa tekniker är här för att stanna kan inte ifrågasättas. Dessutom hindrar den snabba utvecklingen av denna nya digitala teknik dem från att bli "transparenta" när som helst inom kort. Lärarna måste göra mer än att bara lära sig att använda de verktyg som för närvarande finns tillgängliga. De måste också lära sig nya tekniker och färdigheter i takt med att den nuvarande tekniken blir föråldrad. Detta är ett helt annat sammanhang än tidigare konceptualiseringar av lärarkunskap, där teknikerna var standardiserade och relativt stabila. Användningen av teknik för pedagogik i specifika ämnen kan teknisk pedagogiskt innehåll Kunskap 1023 förväntas förbli relativt statisk över tiden. Lärarna skulle därför kunna fokusera på variablerna innehåll och pedagogik och vara säkra på att tekniska sammanhang inte skulle förändras alltför dramatiskt under sin karriär som lärare. Detta nya sammanhang har förgrundat tekniken på ett sätt som man inte hade kunnat föreställa sig för några år sedan. Kunskap om teknik blir därför en viktig aspekt av den övergripande lärarkunskapen. Vad som är intressant är att de pågående diskussionerna om den tekniska kunskapens roll verkar dela med sig av många av de problem som Shulman identifierade på 1980-talet. Till exempel betraktades kunskap om innehåll och kunskap om pedagogik som separat och oberoende av varandra före Shulmans seminala arbete om PCK. På liknande sätt anses kunskap om teknik i våra dagar ofta vara skild från kunskap om pedagogik och innehåll. Detta tillvägagångssätt kan representeras som tre cirklar, varav två (innehåll och pedagogik) överlappar som beskrivs av Shulman, och en cirkel (teknik) står isolerad från dessa två. Figur 3 representerar de kunskapsstrukturer som ligger till grund för en stor del av den aktuella diskussionen om utbildningsteknik. Det vill säga, tekniken betraktas som en separat uppsättning av kunskaper och färdigheter som måste läras, och förhållandet mellan dessa färdigheter och den beprövade och sanna grunden för undervisning (innehåll och pedagogik) är obefintlig eller anses vara 1024 Lärare College Record relativt trivialt att förvärva och genomföra. Utformningen och genomförandet av workshops eller lärarutbildningsprogram som främjar lärandet av specifik hård- och programvarukompetens som tillräcklig för att avrunda lärarnas kunskapsbaser för undervisning med teknik är direkta konsekvenser av detta perspektiv. Förhållandet mellan innehåll (det verkliga ämne som ska läras och läras ut), pedagogik (processen och praxis eller metoder för undervisning och lärande) och teknik (både vanliga, som krittavlor, och avancerade, såsom digitala datorer) är emellertid komplext och nyanserat. Tekniken kommer ofta med sina egna krav som begränsar det innehåll som måste täckas och arten av möjliga representationer. Dessa beslut har en krusande effekt genom att definiera, eller på andra sätt begränsa, undervisningsrörelser och andra pedagogiska beslut. Det kan därför vara olämpligt att betrakta kunskap om teknik som isolerad från kunskap om pedagogik och innehåll. I motsats till den enkla synen på teknik (Figur 3 ), vårt ramverk (Figur 4 ) betonar kopplingar, interaktioner, råd och begränsningar mellan och bland innehåll, pedagogik och teknik. I denna modell är kunskap om innehåll (C), pedagogik (P) och teknik (T) centralt för att utveckla god undervisning. Men i stället för att behandla dessa som separata kunskapsinstanser betonar denna modell dessutom det komplexa samspelet mellan dessa tre kunskapsinstanser. Vi hävdar inte att denna TPCK-strategi är helt ny. Andra forskare har hävdat att kunskap om teknik inte kan behandlas som kontextfri och att god undervisning kräver förståelse för hur tekniken relaterar till pedagogik och innehåll (
En av de mest populära ramverken under det senaste årtiondet är den tekniska pedagogiska och innehållskunskap (TPACK) ramverket REF.
9,440,559
Technological pedagogical content knowledge: A framework for teacher knowledge
{'venue': 'Teachers College Record', 'journal': None, 'mag_field_of_study': ['Psychology']}
10,420
Till en första approximation, det mekaniska beteendet hos alla deformerbara fasta objekt kan uttryckas som f på F s på Kx, och acceleration ( på samma gång), friktionskraften (F s ), linjär styvhet (K ), viskositet (B) och massa (M ) är de fysiska parametrar som skiljer ett objekt från ett annat (vi använder små bokstäver för variabler och stora för parametrar). Det är vårt mål att studera manuell upplösning av alla dessa fysiska variabler och parametrar och att tillhandahålla grundläggande psykofysisk information som kan användas för att (1) förbättra vår förståelse av manuell uppfattning av objektets egenskaper, (2) vägleda utvecklingen av konstruktionsspecifikationer för haptiska gränssnitt som inte bara känner position och kraft kommandon från den mänskliga operatören utan också visa sådan information till operatören i teledrift och virtuella miljösystem (se t.ex. den nyligen publicerade boken om system av denna typ redigerad av Durlach & Mavor, 1994), och (3) förbättra utformningen av autonoma robotar som måste använda sig av manuell avkänning och manipulation. Detta är det tredje i en serie av papper som handlar om hur enskilda fysiska egenskaper hos objekt uppfattas. I det första dokumentet i denna serie (Durlach et al., 1989) rapporterade vi resultaten av en mängd olika experiment där ämnet var skyldig att diskriminera eller identifiera objektets längd (relaterat till variabeln x) med hjälp av fingerpannmetoden. Den just märkbara skillnaden (JND) i längd mätt i diskrimineringsförsök var ungefär 1 mm för referenslängder på 10-20 mm, och ökade till ungefär 2,2 mm för en referenslängd på 80 mm. Resultatet bröt mot Webers lag. I den andra tidningen (Pang, Tan, & Durlach, 1991) diskuterade vi experiment där ämnet krävdes för att diskriminera motståndskraft (representeras av parametern F s) med hjälp av aktiv fingerrörelse. JND befanns vara 7 % av referenskraften inom ett referenskraftområde på 2,5–10,0 N, 1 ett förskjutningsområde på 5–30 mm, ett initialt fingerpannområde på 45–125 mm och ett medelvärde på 25–160 mm/s. Dessa resultat stämde ungefär överens med dem som rapporterats för vikt och kraft av andra forskare (t.ex. Jones, 1989; se även Jones recension, 1986). Manuell förnimmelse av styvhet K (dvs. förändring i kraft dividerat med förändring i förskjutning) eller, motsvarande, överensstämmelse 1/K (dvs. förändring i förskjutning dividerat med förändring i kraft) baseras förmodligen på förnimmelsen av både kraft och förskjutning, eftersom människor inte har någon känd "styvhet/överensstämmelsesensor" i de perifera sinnesorganen. Under aktiv kontakt, även om både tac- Copyright 1995 Psyconomic Society, Inc. I dessa experiment greps två plattor mellan tummen och pekfingret och klämdes ihop längs ett linjärt spår. Den kraft som motstår klämman, som produceras av ett elektromekaniskt system under datorkontroll, programmerades att antingen vara konstant (när det gäller våldsdiskrimineringsförsök) eller linjärt öka (när det gäller försöken med efterlevnadsdiskriminering) över den klämmande förskjutningen. Efter att ha slutfört en uppsättning grundläggande psykofysiska experiment om efterlevnadsupplösning (Experiment 1) utförde vi ytterligare experiment för att undersöka om arbete och/eller terminalkrafter spelade en roll vid efterlevnadsdiskriminering. I Experiment 2 utfördes försök att följa och tvinga fram diskriminering med ett flyende förskjutningsparadigm för att skilja arbetssignaler (och terminal-force coutes for the compliance experiments) från efterlevnads- och kraftsignaler. Effekten av respons från försök för försök på svarsstrategin undersöktes också. I Experiment 3 genomfördes försök med efterlevnadsdiskriminering med helt eliminerade arbetsvägar och slutkontroller minskade kraftigt. Våra resultat tyder på att människor har en tendens att använda mekaniskt arbete och tvinga fram signaler om efterlevnadsdiskriminering. När arbets- och terminalkraftssignalerna skiljdes från regelefterlevnadssignalerna var regelefterlevnadsupplösningen dålig (22 %) i förhållande till kraft- och längdupplösningen. När arbetssignalerna var helt eliminerade, kunde prestanda förutsägas från terminal-kraft-signaler. En parsimonisk beskrivning av alla uppgifter från överensstämmelseexperimenten är att personer som diskriminerar överensstämmelse på grundval av terminalkraft.
Effekterna av våld och arbete på diskriminering i fråga om regelefterlevnad undersöktes i REF och de betydande effekterna av våld på diskrimineringen var uppenbara.
6,329,956
Manual discrimination of compliance using active pinch grasp: the roles of force and work cues, Perception
{'venue': 'Psychophysics', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']}
10,421
I det här dokumentet introducerar vi en ny metod för textdetektering i naturliga bilder. Metoden består av två bidrag: För det första en snabb och skalbar motor för att generera syntetiska bilder av text i skräp. Denna motor överlagrar syntetisk text till befintliga bakgrundsbilder på ett naturligt sätt, vilket förklarar den lokala 3D scengeometrin. För det andra använder vi de syntetiska bilderna för att träna en Full-Konvolutional Regression Network (FCRN) som effektivt utför textdetektering och begränsande-box regression på alla platser och flera skalor i en bild. Vi diskuterar FCRN:s förhållande till den nyligen införda YOLO-detektorn, samt andra system för att upptäcka objekt från början till slut baserade på djupinlärning. Det resulterande detektionsnätverket utför i hög grad aktuella metoder för textdetektering i naturliga bilder och uppnår en F-mätning på 84,2 % på standardriktmärket ICDAR 2013. Dessutom kan den bearbeta 15 bilder per sekund på en GPU.
Syntetiska bilder av text i skräp skapades för att träna en FullyConvolutional Regression Network (FCRN) REF.
206,593,628
Synthetic Data for Text Localisation in Natural Images
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
10,422
I den här artikeln tar vi hänsyn till förtroendets inflytande på assimileringen av förvärvad information till en agents tro. Med hjälp av modal logik karakteriserar vi semantiskt och axiomatiskt förhållandet mellan tro, informationsinhämtning och förtroende. Förtroende- och informationsinhämtningsoperatörerna representeras av normala metoder för KD45 respektive KD, medan tillit betecknas av en modal operatör med minimal semantik. En karakteristisk axiom av det grundläggande systemet är om agent jag tror att agent j har berättat för honom sanningen om p och han litar på bedömningen av j på p, då kommer han också att tro p. Förutom det grundläggande systemet, några varianter och ytterligare axioms för förtroende och informationsinhämtning presenteras också för att visa den uttrycksfulla rikedomen av logiken. Tillämpningarna av logiken på datasäkerhet och databas resonemang föreslås också av dess koppling till några tidigare verk.
I REF representeras förtroende som agentens övertygelse och författaren fokuserar på förtroende för giltigheten och dess inverkan på assimileringen av information som mottas från förvaltaren.
17,000,512
Belief, information acquisition, and trust in multi-agent systems--A modal logic formulation
{'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Computer Science']}
10,423
Gradminimeringsproblemet är att hitta den lägsta rank matrisen i en given uppsättning. Kärnnormminimering har föreslagits som en konvex avslappning av rangminimering. Recht, Fazel och Parrilo har visat att atomnormminimering som är föremål för en affin restriktion är likvärdig med rangminimering under ett visst villkor givet i termer av den rank-begränsade isometry egenskapen. I närvaro av mätbuller, eller med endast ungefärlig generativ modell med låg rankning, är den lämpliga restriktionen en ellipsoid snarare än ett affin utrymme. Det finns polynom-tid algoritmer för att lösa den nukleära normminimering med en ellipsoidal begränsning, men ingen prestandagaranti har visats för dessa algoritmer. I detta dokument härleder vi en sådan uttrycklig prestandagaranti, som begränsar felet i den ungefärliga lösning som tillhandahålls av kärnnormminimering med en ellipsoidal begränsning.
Matrix avkänning har först bevisats i konvex inställning med hjälp av nukleär norm minimization [37, 41, REF.
7,863,618
Guaranteed Minimum Rank Approximation from Linear Observations by Nuclear Norm Minimization with an Ellipsoidal Constraint
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,424
Abstrakt. GP (för grafprogram) är ett regelbaserat, icke-deterministiskt programmeringsspråk för att lösa grafproblem på en hög abstraktionsnivå, vilket befriar programmerare från att hantera datastrukturer på låg nivå. Kärnan i GP består av fyra konstruktioner: enstegs tillämpning av en uppsättning villkorliga graf-transformation regler, sekventiell sammansättning, förgrening och iteration. Detta dokument ger en översikt över GP-projektet. Vi introducerar språket genom att diskutera en sekvens av små programmering fallstudier, formellt förklara villkorliga regel schemata som är byggstenarna i program, och presentera en semantik för GP i stil med strukturella operativa semantik. Ett speciellt drag i semantiken är hur den använder begreppet ändligt misslyckade program för att definiera kraftfulla grenning och iteration kommandon. Vi beskriver även GP:s prototypimplementering.
GP REF är ett regelbaserat, icke-deterministiskt programmeringsspråk.
17,502,287
The graph programming language GP
{'venue': 'In Proc. Algebraic Informatics (CAI 2009', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,425
Nyligen, utvecklingen av neural maskinöversättning (NMT) har avsevärt förbättrat översättningskvaliteten på automatisk maskinöversättning. Medan de flesta meningar är mer exakt och flytande än översättningar av statistisk maskinöversättning (SMT)-baserade system, i vissa fall, NMT-systemet producerar översättningar som har en helt annan betydelse. Detta är särskilt fallet när sällsynta ord förekommer. När man använder statistisk maskinöversättning har det redan visat sig att betydande vinster kan uppnås genom att förenkla inmatningen i ett förbearbetningssteg. Ett vanligt exempel är förbeställningsmetoden. I detta arbete använde vi frasbaserad maskinöversättning för att förhandsöversätta indata till målspråket. Sedan genererar ett neuralt maskinöversättningssystem den slutliga hypotesen med hjälp av pre-translation. Därmed använder vi antingen endast utdata från det frasbaserade maskinöversättningssystemet (PBMT) eller en kombination av PBMT-utdata och källmeningen. Vi utvärderar tekniken på engelska till tyska översättning uppgift. Med hjälp av detta tillvägagångssätt kan vi överträffa PBMT-systemet samt det grundläggande neurala MT-systemet med upp till 2 BLEU-poäng. Vi analyserade hur kvaliteten på det ursprungliga systemet påverkade slutresultatet.
Pre-translation metod infördes för att hantera de sällsynta orden i ett neuralt nätverk REF.
18,017,180
Pre-Translation for Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,426
Abstrakt. Betalningskanaler är den mest framträdande lösningen på blockchain skalbarhet problem. Vi introducerar problemet med nätdesign med avgifter för betalningskanaler ur perspektivet en betalningsleverantör (PSP). Med tanke på en uppsättning transaktioner undersöker vi den optimala grafstrukturen och avgiftstilldelningen för att maximera PSP:s vinst. En kund föredrar att dirigera transaktioner via PSP: s nätverk om den billigaste vägen från avsändare till mottagare är ekonomiskt intressant, dvs. om banan kostar mindre än blockkedjeavgiften. När grafstrukturen är ett träd och PSP underlättar alla transaktioner kan problemet formuleras som ett linjärt program. För en sökväg graf, presenterar vi en polynom tid algoritm för att tilldela optimala avgifter. Vi visar också att stjärnnätverket, där centrum är en extra nod som fungerar som mellanhand, är en nästan optimal lösning på problemet med nätverksdesign.
Dessutom diskuteras utformningen av betalningsnätverk med avgifter ur en betaltjänstleverantörs synvinkel som vill maximera vinsten i REF.
52,063,809
Payment Network Design with Fees
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,427
Vi presenterar trasor (Reference Architecture for Generation Systems) ramverk: en specifikation av en abstrakt Natural Language Generation (NLG) systemarkitektur för att stödja delning, återanvändning, jämförelse och utvärdering av NLG-teknik. Vi hävdar att bevisen från en undersökning av de faktiska NLG-systemen kräver en annan tonvikt i ett referensförslag än den som setts i liknande initiativ inom informationsutvinning och multimediagränssnitt. Vi inför själva ramverket, särskilt den datamodell på två nivåer som gör det möjligt för oss att stödja de komplexa datakraven för NLG-system på ett flexibelt och konsekvent sätt, och beskriva våra insatser för att validera ramverket genom en rad genomföranden. I detta dokument beskrivs ett försök att ange en referensarkitektur för genereringssystem för naturligt språk. Fältet Natural Language Generation (NLG) kännetecknas av en mängd olika teoretiska metoder, som har effekten av att splittra samhället och minska bandbredden i kommunikationen. Tekniken är tillräckligt mogen för att kommersiella tillämpningar ska vara nära, och ändå är det relativt sällsynt att NLG-programvara och data återanvänds mellan olika forskare. Projektet "Reference Architecture for Generation Systems" (Reference Architecture for Generation Systems) syftar till att utnyttja den underförstådda överenskommelse som finns inom området och fokusera diskussionen på de verkliga punkterna av teoretisk oenighet med hjälp av en "standard" vokabulär och referenspunkt. Därför syftade trasor till att göra det lättare att: • skapa återanvändbara dataresurser (t.ex. representativa ingångar till algoritmer, korpora av genererade texter tillsammans med deras underliggande representationer); • kommunicera data mellan NLG-programmoduler skrivna vid olika tidpunkter och med olika antaganden, och därmed tillåta återanvändning av sådana moduler; • tillåta att moduler (eller åtminstone deras ingångar och utgångar) definieras på ett relativt formellt sätt, så att deras omfattning och begränsningar kan förstås bättre. På så sätt bör utvecklingen av tillämpningsorienterade system underlättas, standardgränssnitt och dataset kan uppstå, idéer och programvara kan lättare återanvändas, forskare kan realistiskt specialisera sig på särskilda områden och jämförande utvärdering av system och komponenter kan bli möjlig. För förståelsen av naturligt språk har det gjorts betydande framsteg i utvecklingen av "arkitekter" och "infrastrukturer" för att stödja utveckling, standardisering och utvärdering av tillämpningar. Till exempel, grindarkitekturen [Cunningham et al., 1996, Bontcheva et al., 2004 ger en svit av användbara programvarumoduler, faciliteter för gränssnitt nya moduler vars input och utdata passar den underliggande modellen och tjänster för att hjälpa corpus förvaltning, statistisk analys och visualisering av resultat. trasor försöker starta processen för naturlig språkgeneration genom att definiera en "arkitektur" för generationssystem. Vi ser nedan att det finns intressanta skäl till varför detta har visat sig vara ganska annorlunda från grinden. Vi anser dock inte att den nuvarande tekniken sätter någon i position att säga vad den "rätta" NLG-arkitekturen är: det finns helt enkelt för lite kunskap om NLG-processen och för mycket variation i målen att skapa NLG-system. För tidig standardisering skulle skada området och hämma den teoretiska mångfalden. Och ändå definierar trasor en arkitektur. Vi löser denna uppenbara motsägelse på följande sätt: • Vi inriktar oss specifikt på end-to-end-genereringssystem, främst för att system som dessa måste ta itu med alla aspekter av generationsprocessen. Dessutom, en studie av Reiter [Reiter, 1994], diskuteras vidare nedan, föreslog att det finns vissa allmängiltighet som finns i sådana system. Vi gör inga anspråk på andra typer av system, även om det verkar troligt att många aspekter av diskussionen här skulle vara relevanta för ett bredare spektrum av system. • Vi definierar arkitekturen på ett särskilt flexibelt sätt (som beskrivs i avsnitt 3 nedan). Detta innebär att människor kan "köpa in" trasor i varierande utsträckning. Naturligtvis ökar möjligheten till delning när man köper mer, men det är inte ett "allt eller inget" beslut (se avsnitt 5). • Vi använder termen referensarkitektur för att hänvisa till trasor för att betona det faktum att det inte är en föreslagen standard. Förekomsten av en väl specificerad referenspunkt kan vara värdefull inte bara för konstruktörer av nya system, utan också som en jämförelsepunkt för befintliga system, och även som ett fokus för diskussionen om sina egna brister. I nästa avsnitt diskuterar vi befintliga idéer om arkitekturer för NLG och hur vårt föreslagna ramverk kan jämföras med liknande initiativ på andra områden. Vi fortsätter sedan att diskutera de viktigaste inslagen i själva ramen, följt av några av de konkreta genomföranden som har utvecklats inom ramen. Vi sammanfattar genom att diskutera hur man kan använda trasor som det är nu. Slutligen diskuterar vi de viktigaste bidrag som detta arbete har gett, tittar på några av de områden som det ännu inte tar upp och anger möjliga framtida riktlinjer för trasinitiativet. Ytterligare detaljer om specifikationerna för trasor och den programvara som vi distribuerar kan erhållas från vår webbplats på http://crc.open.ac.uk/projects/rags. Generella arkitekturer för NLG Många olika övergripande arkitekturer har föreslagits för NLG-system [De Smedt et al., 1996], vilket återspeglar utbudet av olika tillämpningar och de olika motiven för att bygga system. Hoppas att det kunde finnas en enda väl specificerad arkitektur som skulle vara lämplig för många system höjdes när Reiter [Reiter, 1994] föreslog att många end-to-end programorienterade NLG-system följde samma arkitektoniska modell: en enkel trestegs pipeline som därför kunde ses som en de facto-standard eller "consensus"-arkitektur. Reiter och Dale [Reiter och Dale, 2000] uppdaterade och lade till ytterligare detaljer till detta förslag i sin NLG lärobok. Den övergripande strukturen för deras modell visas i figur 1. Den första stora uppgiften för trasprojektet, som genomfördes 1998, var en omfattande undersökning av tillämpade NLG-system för att validera detta förslag till "consensus"-arkitektur 1. Vi identifierade 19 system 2 som uppfyllde kriterierna för att vara end-to-end tillämpningsorienterade NLG-system, och försökte korrelera deras publicerade beskrivningar med den föreslagna konsensusmodellen. De första slutsatserna var uppmuntrande: även om dessa system hade något från två till sju namngivna moduler, kunde så gott som hela systemet ses som en rörledningsarkitektur där alla modulerna motsvarade en, del av en eller flera av de tre "consensus"-modulerna (det huvudsakliga undantaget för denna modell var Komet - för mer detaljer, se Cahill och Reape [Cahill och Reape, 1998] (2000)) formulering använder något annorlunda terminologi, som vi också använder här, men för våra syften är annars inte helt annorlunda. 2 De system som undersöktes var: Alethgen [Coch och David, 1994] ; Ana [Kukich, 1988] ; Caption Generation System [Mittal et al., 1998] ; Drafter [Paris et al., 1995] ; Drafter2 [Scott et al., 1998] ; Exclass [Caldwell och Korelsky, 1994] ; FoG [Goldberg et al., 1994] ; Ghostwriter [Marchant et al., 1996] ; GIST [Power and Cavallotto, 1996] ; Gossip [Kittredge och Polguére, 1991] ; HealthDoc [Hirst et al., 1997] ; Joyce [Rambow, 1990] ; Komet [Teich och Bateman, 1994] ; LFS [Iordanskaja et al., 1992] ; ModellExplaher [Lavoie et al., 1996] ; Patent Claim Expert [Sheremetyeva et al., 1996] ; Plan [MKepalme m., 1994] ; Provb. Fullständiga detaljer och diskussioner om undersökningen och erhållna resultat finns i Paiva [Paiva, 1998] och Cahill och Reape [Cahill och Reape, 1998 ]. 3 de exemplifieras i någon detalj, och effektivt föreskrivs att vara komplett och av specifika typer (även om vissa variationer är tillåtna i innehållet i en textspecifikation). Detta innebär att det nästan inte finns någon flexibilitet när det gäller tilldelning av uppgifter på lägre nivå (t.ex. retorisk strukturering, lexikalt val) till moduler -om detta föreslås som en "konsensus"-arkitektur, då skulle man förvänta sig att se alla system utföra var och en av dessa uppgifter inom samma modul. Det andra steget i trasan undersökning försökte bekräfta denna aspekt av modellen också, en svårare uppgift eftersom inte alla system beskrivs i tillräckligt detial för att göra tydliga bedömningar. De uppgifter som lågnivågenerationen beaktade för denna analys var: Lexikalisering: Valet av innehållsord som ska visas i den slutliga utdatatexten. Kombinationen av flera strukturer (t.ex. meningar) till en enda, mer komplex struktur. Retorisk strukturering: Fastställandet av retoriska relationer och deras omfattning. Planering av det material som ska ingå i referensuttrycken (inklusive pronominationsbeslutet). Valet av linjär ordning av textens element. Indelning av information i meningar och punkter. Centrering/salience/tema: Spårning av textens salience-relaterade egenskaper inom en diskurs. Denna uppsättning utgör inte en uttömmande uppdelning av NLG i komponenter, utan representerar de uppgifter som oftast identifieras som oberoende funktioner inom NLG-systemen. För att validera "consensusmodellen" på denna nivå tilldelade vi var och en av dessa uppgifter till modulen i den konsensusmodell där den uppstod. Figur 2 är en grafisk representation av resultaten av denna övning 3. För varje system och uppgift finns det tre positioner som kan skuggas, vilket indikerar att uppgiften utförs (delvis eller helt) inom motsvarande modul (med beställningen Document Planner, Microplanner och Surface Realiser). Till exempel, i GhostWriter, utförs aggregering i Microplanner och salience beaktas i både Document Planner och Microplanner. För referens har vi inkluderat Reiter och Dale modellen som den sista raden i tabellen, även om det inte specificerats i detalj vid tidpunkten för undersökningen. För att modellen ska kunna valideras på denna nivå av granularitet förväntar vi oss att de flesta av systemen följer samma mönster som denna sista rad. Det framgår tydligt av diagrammet att de inte gör det. Det råder god enighet om att retorisk strukturering förekommer i dokumentplaneraren, men nästan lika stark oenighet om att segmentering förekommer i Microplanner - de flesta system gör det i dokumentplaneraren. De flesta uppgifter verkar kunna visas i någon modul, eller över två moduler, och Lexikalisering verkar ganska ofta ske i två olika faser. Även om en sådan övning alltid bara är en approximation, är budskapet i figur 2 inte i de särskilda detaljerna utan i den betydande mängd mångfald som anges. Denna mångfald tyder på att även om Reiter och Dale modellen kan ha fångat några högnivåintuitioner om organisationen av NLG-system, är den alltför begränsad för att fungera som grund för en formellt definierad funktionell arkitektur som återspeglar hela utbudet av tillämpade NLG-system. Sammanfattningsvis var våra slutsatser om konsensusmodellens giltighet: 3 Denna siffra är en återpresentation av de två tabellerna i Cahill och Reape (Cahill och Reape, 1998). Där en uppgift utfördes genom användarintervention, inte alls utförd eller där dess placering var oklar, har vi utelämnat den, men vi har inkluderat placeringar markerade som osäkra i de ursprungliga tabellerna. Många av de undersökta systemen hävdade eller verkade följa trestegsmodellen, men det var inte möjligt att tilldela detaljerade funktionella beskrivningar till de tre moduler som var kompatibla med alla, eller ens de flesta, system. 2. Utgångspunkten är följande: Många av systemen hade gemensamma funktionella undermoduler (t.ex. "avseende uttrycksgenerering"), men ordern om utförande av dessa undermoduler, och deras tilldelning till de tre stegen bildade inte ett enda övergripande konsekvent mönster. 3. Vad är det som händer? Det fanns ingen enkel definition av datagränssnitten mellan de föreslagna samförståndsmodulerna, eller ens de lägre funktionella modulerna, i de system som undersöktes – de flesta system manipulerade data på flera språknivåer på ganska komplicerade sätt, och "snapshots" av data vid de putativa gränssnitten avslöjade inte några starka mönster av vad som var och vad som inte var direkt i olika system. Även om deras föreslagna "konsensusmodell" representerar en viktig observation om fältet, är Reiters och Dales särskilda ståndpunkt om definitionen och tidpunkten för modulerna, liksom deras antaganden om hur datatyperna samlas i gränssnitten, även om exempel på god NLG-systemdesign, alltför restriktiva för det allmänna fallet. För att vara till nytta skulle trasornas arkitektur behöva inta en mer flexibel ståndpunkt i dessa frågor. När vi tänkte efter kanske slutsatserna i vår undersökning inte var så förvånande. I grund och botten kan NLG-uppgiften betraktas som ett samtidigt problem med begränsad tillfredsställelse som inbegriper kunskaper på flera språknivåer [De Smedt et al., 1996]. Forskare som föreslår nya arkitekturer och sökmetoder för NLG har hävdat att effektiv generering av optimala texter inte kan uppnås genom att göra val i förutbestämd ordning (till exempel Danlos [Danlos, 1984], Wanner och Hovy [Wanner och Hovy, 1996] ; Mellish et al. (Mellish et al., 1998)............................................................................................................ Detta talar mot att det finns en optimal pipeline eller skiktad strategi som finns i mycket nuvarande NL förståelse arbete. Större komplexitet i datainteraktionen och större variation i bearbetningsordningen kan förväntas, vilket gör uppgiften att utveckla en referensarkitektur mer utmanande. Undersökningen visade dock att det var tillräckligt vanligt för att motivera sökandet efter gemensamma principer, så länge kravet på en exakt arkitekturspecifikation ersattes av strävan efter en mer allmän ram för utveckling av NLG-system. Ett sådant ramverk skulle fortfarande kunna utgöra en grund för samverkan mellan forskare som är överens om grundläggande antaganden om sina systemarkitekturer och datastrukturer – det skulle inte tvinga fram en särskild uppfattning (som en fullständig referensarkitektur skulle ha), men det skulle ge ett gemensamt språk för att uttrycka och utforska ett överenskommet perspektiv. Den resulterande ramen för trasor avlastar kravet på "architectural" till en punkt där det är tillräckligt inkluderande av faktiska system för att vara relevanta, men ändå tillräckligt restriktivt för att vara användbart. Vi uppnådde detta genom att karakterisera på en ganska abstrakt nivå de datatyper, funktionella moduler och protokoll för att manipulera och kommunicera data som de flesta modulära NLG-system verkar förkroppsliga. De viktigaste komponenterna i förslaget om trasor är följande: • En specifikation på hög nivå av de viktiga (språkliga) datatyper som NLG-systemen manipulerar internt. Här används abstrakta typdefinitioner för att ge en formell karakterisering oberoende av någon särskild genomförandestrategi. • Ett referensgenomförande på låg nivå som specificerar detaljerna i en datamodell som är tillräckligt flexibel för att stödja NLG-system. Detta genomförande ("Objects and Arrows Model") karakteriserar formellt uppsättningen rättsliga data representationer som en uppsättning maskinskrivna riktade grafer, • en exakt XML-specifikation för datatyperna, vilket ger en standard "off-line" representation för lagring och kommunikation av data mellan komponenter, • en allmän bild av hur bearbetningsmoduler kan interagera och kombinera för att göra ett komplett NLG-system, med hjälp av dataformat "nativ" till sina särskilda programmeringsspråk som är trogna de modeller på hög och låg nivå och utnyttja överenskomna momentiationer av högnivådatatyper, • flera urvalsimplementationer för att visa hur utvecklingen av en rad konkreta arkitekturer kan uppnås. I figur 3 sammanfattas trasans struktur och hur den är avsedd att användas. Olika processmoduler manipulerar trasor data med hjälp av format som är infödda till deras specifika programmeringsspråk (de kan naturligtvis manipulera andra typer av data, men trasor säger ingenting om hur det kan kommuniceras mellan dem). Dessa format ger implementationer av abstrakta typdefinitioner och är också i överensstämmelse med modellen "objekt och pilar", genom vilken de ärver en standard XML serialisering. Två kommunicerande moduler måste komma överens om en omedelbar bild av de abstrakta datatyperna och kan sedan definiera sina gränssnitt och utbyta data antingen i ett överenskommet inhemskt format eller via XML offline representation. Frikopplingen av det abstrakta från de mer konkreta aspekterna av referensarkitekturen resulterar i en "ram" för utveckling av NLG-system som gör det möjligt för många möjliga betongarkitekturer - för att bygga en verklig NLG-arkitektur måste ytterligare beslut om process- och dataflöde fattas. Detta är ett av de sätt som trasorna arkitektur är ovanligt flexibel. Den resulterande modellen liknar på vissa sätt portarkitekturen för information extraktionssystem [Cunningham et al., 1996, Bontcheva et al., 2004. Båda ger hjälp med att bygga en tillämpning av modulära komponenter som tillhandahålls från andra håll, och är helt obundet till faktiska bearbetningsstrategier som används 1. I grinden uppnås datakommunikation genom inkrementell notering av de texter som analyseras, så de implicita datatyperna är starkt baserade i textelement; eftersom NLG naturligtvis inte börjar med en text, behöver trasor en mer abstrakt NLG-orienterad repertoar av datatyper och -representationer, med mindre beroende av en enda gemensam referenspunkt. trasor innebär således att man intar en starkare teoretisk hållning och försöker göra ett väsentligt uttalande men inte alienera alternativa metoder. 2. Gate är en konkret plattform för allmän implementering, med specifika bibliotek och gränssnitt för applikationsutveckling, med fokus på högkvalitativt stöd för verksamhet på låg nivå. trasor är en ram för att specificera genomförandet (plus vissa urvalsgenomföranden), mer engagerat funktionellt, men mindre engagerat genomförande. Både trasor och grindar stöder byggandet av modulsystem och den jämförande utvärderingen av systemkomponenter, men deras omfattning skiljer sig åt. trasor stöder specifikationen av en komponentuppgift och den standardiserade representationen av önskade ingångar och utgångar. Gate gör detta också (med en enklare datamodell), men ger också mycket mer direkt stöd för genomförandet. Porten har varit mycket framgångsrik. I en ny användarundersökning 4, ungefär hälften av dem som svarade använde systemet aktivt i forskning, programutveckling eller undervisning, vilket tyder på en fortsatt betydande och hälsosam användarbas. Denna framgång uppmuntrar oss att hoppas att något liknande kommer att vara möjligt för NLG. Men framgången med porten bygger på en befintlig underliggande datamodell, tipser arkitektur. En sådan modell finns ännu inte för NLG, så ett viktigt bidrag av trasor är försöket att specificera en. En annan användbar jämförelsepunkt är "standardreferensmodellen" för intelligenta multimediapresentationssystem Vi drar slutsatsen att alla dessa referensförslag, även om de har liknande avsikter och struktur, har en subtilt annorlunda tyngdpunkt. Vi kan särskilja arkitekturer efter ett antal dimensioner. En arkitektur kan vara abstrakt (med stöd för utformning och specifikation) eller konkret (med stöd för faktiska genomförandemekanismer). Det kan vara normativt (svårt att ange vad som är möjligt) eller flexibelt (som tillåter en rad olika typer av genomförande). Det kan vara inriktat på funktionell specifikation (precisera modulerna och deras interaktioner) eller dataspecifikation (precisera data som utbyts mellan eller hålls av moduler). Slutligen kan den vara uppgiftsorienterad (fokuserad på ett smalt spektrum av system med en väldefinierad uppgift) eller generisk (öppen, med avseende på vad systemen är för). Figur 4 visar informellt hur trasor, grindar och impps modellen relaterar till dessa dimensioner. Kärnan i trasramverket är en redogörelse för de data som NLG-system manipulerar: trasornas "datamodell". Denna modell är en beskrivning på två nivåer av NLG-datastrukturer: högnivåmodellen delar in NLG-data i sex grundläggande typer med olika språkliga roller, och specificerar hur de relaterar till varandra; lågnivåmodellen anger formellt vilka datastater som kan kommuniceras mellan NLG-moduler i samband med den föränderliga specifikationen av en text. Lågnivåmodellen utgör också grunden för en enhetlig representation och överföring av data mellan moduler. En användare av trasor ram kan "köpa in" ramen (och befintligt arbete använder den) i varierande grad. De kan till exempel välja om de vill: • representera (vissa av) sina data på sätt som är kompatibla med datamodellen för trasor, • använda särskilda momentiationer av de abstrakta typer som redan används, • implementera moduler med funktionalitet som anges i uppsättningen exempel trasor moduler, eller kompatibel med andra befintliga arbeten, • organisera sina moduler på standard sätt som uppstår från tidigare arbete, eventuellt med hjälp av trasa applikationskomponenter. Den grundläggande ramen för trasor är främst inriktad på den första av dessa, vilket ger en fast grund för fastställandet av överenskomna strategier för andra aspekter när ramen används. Ramverket för trasor stöder sex grundläggande datatyper: Conceptual, Retorical, Document, Semantic, Syntaktic och Citat. Av dessa är Syntaktik och Citat beroende av målspråket och Conceptual kommer ofta att vara oberoende av det. För de andra tre intar vi ingen ståndpunkt om språkberoende, även om vi misstänker att endast (delar av) den semantiska nivån kan vara språkoberoende. NLG system byggs under antagande många olika teorier om syntax, semantik, diskurs, etc. Det skulle vara omöjligt för trasor att producera en allmänt accepterad fullständig definition av representationer på någon av dessa nivåer eftersom det finns så mycket teoretisk mångfald. I stället definierar trasor de olika representationsnivåerna främst i termer av abstrakta typdefinitioner som anger de komponenter som dessa representationer förväntas ingå i. Här använder vi standardnotation från set-teori för att karakterisera datans väsentliga struktur, oberoende av ett visst genomförande (ett gemensamt tillvägagångssätt inom teoretisk datavetenskap, även om det inte används i stor utsträckning inom beräkningslingvistik). Den notation som används i våra definitioner förklaras utförligt i trasans referenshandbok [Cahill et al., 2001b], och presenteras kortfattat här. Således, till exempel: (från avsnitt 3.1.2 nedan) definierar en RhetRep (RhetRep) som består av en RhetRel (rhetorisk relation) och en RhetRepSeq (följd av RhetReps) för barnen. Den senare definieras i sig själv i form av en sekvens av ett eller flera element, som var och en är en RhetLeaf eller en RhetRep. De abstrakta typdefinitionerna "bottom out" i primitiva typer, som anges på följande sätt: RhetRel P rimitives trasor har inget mer att säga om typen RhetRel, som är uppsättningen av retoriska relationer. Forskarna uppmanas att omedelbart påbörja denna uppsättning så som de anser lämpligt i enlighet med vilken teoretisk ståndpunkt de vill inta. Det vill säga, trasor specificerar inte undertyper av primitiva typer, förutom att erkänna att de kan existera. Olika implementationer kan göra olika antaganden om undertyper av primitiva typer, även om mest effektiva återanvändning av kod eller data kommer att vara möjligt mellan forskare som håller med. Alla definitioner av trasor datatyper är alltså parameteriserade via dessa primitiva typer - de definierar det övergripande formatet för en uppsättning strukturer men anger inte den exakta uppsättning av värden som kan visas på bladen av dessa strukturer. Användare av trasor dataset eller moduler måste ange hur de primitiva typerna är ögonblickliga samt hur de använder abstrakta typer. Utöver de abstrakta typdefinitionerna ger vi också informella exempel på representationerna i notationer som tyder på faktiska genomförandemöjligheter 5. 5 trasor stöder inga specifika noteringar förutom XML-utväxlingsformatet som beskrivs i avsnitt 3.4. Det är viktigt att inse att det på sätt och vis inte finns något särskilt nytt i följande förslag. De är avsiktligt förankrade i befintlig praxis och bygger på ingående studier av befintliga teorier. Betydelsen av trasor modellen kommer från den explicita artikuleringen av de distinkta nivåerna av representation och deras form. Vi anser inte att NLG-system alltid är uttryckliga om arten av deras representationer (t.ex., om något är semantiskt eller syntaktiskt), och problem uppstår om detta görs dåligt. Konceptuella representationer inkapslar hänvisningar till data "utanför" NLG-systemet - vanligtvis information som tillhandahålls som generatorns ingång. Detta är inte semantiska framställningar: de kan inte ha någon enkel koppling till språkliga beslut och de antas inte vara skapade eller förändrade av NLG-systemet. För begreppsmässiga representationer finns det en enda primitiv typ KBId ("kunskapsbasidentifierare"). trasor anger hur ett NLG-system kan förhöra sådana data för att ta reda på om omvärlden, med hjälp av funktioner som: Även om konceptuella enheter kanske inte har någon enkel språklig tolkning, de ändå måste vara relaterade till språkliga begrepp för att ett NLG-system kan hantera dem. Detta är anledningen till att ovanstående funktioner uttrycks i termer av semantiska predikat, roller, etc., snarare än en separat konceptuell vokabulär. Trasor API för KBIds är mycket nära det abstrakta gränssnittet mellan penmansystemet [Mann, 1983] och dess kunskapsbas, och det kan genomföras via en Upper Model [Bateman, 1990]. Specifikationen för detta API är också kompatibel med åsikten att ett NLG-systems interaktion med en extern kunskapskälla bör ske genom ett kontrollerat gränssnitt som ger ett visst skydd mot brister och oegentligheter i de underliggande uppgifterna [Reiter och Robertson, 1999]. Reiter och Dale [Reiter och Dale, 2000] diskuterar elementen i en domänmodell i termer av enheter, attribut, relationer och klasser (i en hierarkisk taxonomi). Ovanstående API tillåter enkel förfrågan av en sådan domän (förutsatt att relationer återställs). Reiter och Dale skiljer sig dock från trasor när det gäller att hävda att predikat, roller etc. är faktiskt en del av domänen, snarare än en del av en språkorienterad syn på domänen. I allmänhet kan principer för innehållsbestämning i NLG vara mycket domänberoende, och därför kan en ram som trasor säga lite om dem. Vissa aspekter av innehållsbestämning är dock involverade i genomförandet av KBId s. Retoriska representationer definierar hur satser (i trasor, SemReps -se avsnitt 3.1.4) i en text är relaterade. Till exempel, den första meningen i texten i Figur 5, "Blow din näsa, så att det är klart", genereras av rikedomssystemet [Cahill et al., 2001a], kan anses bestå av två förslag: snyt näsan och näsan är klar, sammankopplad med en relation som MOTIVATION. Således en retorisk representation (RhetRep) är ett träd vars inre noder är märkta med relationer (RhetRel), och vars blad är atomretoriska noder (RhetLeaf, som, som vi kommer att se i avsnitt 3.2, kan till exempel betraktas som pekare till konceptuellt eller semantiskt innehåll). Ett exempel på en enkel retorisk representation visas informellt i figur 6. Här finns en enda RhetRep som innehåller en sekvens av två RhetLeaf s (associerad med semantiskt innehåll, som inte är strikt en del av RhetRep själv). RhetRel för RhetRep har subtypen MOTIVATION, ett teorispecifikt samband. Betydelsen av underträdens positioner specificeras inte för trasornas representation i allmänhet, eftersom den är teorispecifik. Teorispecifika definitioner av relationer specificerar därför döttrarnas roll. Till exempel, ett genomförande av retorisk strukturteori [Mann och Thompson, 1988] skulle behöva specificera att, till exempel, den första dottern till MOTIVATION relationen är "nucleus" och den andra "satelliten", om relationen istället CONTRAST, skulle det ange att den andra var en annan "nukleus". Likaså, ett genomförande baserat på diskursen teorin om Moser och Moore [Moser och Moore, 1996] skulle behöva specificera att till exempel, den första dottern av MOTIVATION är "kärnan" och den andra "bidrag", men att döttrar i en CAUSE relation hade ingen sådan beteckning. 11 MOTIVERING
Det finns också ett motsvarande arbete REF som utmanar denna nedbrytning.
8,899,821
A Reference Architecture for Natural Language Generation Systems
{'venue': 'NATURAL LANGUAGE ENGINEERING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,428
En nyckelfunktion i samverkande frågesvarssystem (CQA) är tilldelningen av frågor från informationssökande till potentiella svarande. En attraktiv lösning är att automatiskt rekommendera frågorna till potentiella svarare med expertis eller intresse för frågeämnet. Men tidigare arbeten har i stor utsträckning ignorerat ett nyckelproblem i fråga rekommendation - dvs. om den potentiella svararen sannolikt kommer att acceptera och besvara de rekommenderade frågorna i rätt tid. Detta papper utforskar de kontextuella faktorer som påverkar responder beteende i en stor, populär CQA-system, med målet att informera konstruktionen av frågor routing och rekommendationssystem. Vi tar särskilt hänsyn till när användare tenderar att svara på frågor i ett storskaligt CQA-system, och hur svarspersoner tenderar att välja frågorna att svara på. Våra resultat över en datauppsättning på mer än 1 miljon frågor hämtas från ett verkligt CQA-system skulle kunna bidra till att utveckla mer realistiska utvärderingsmetoder för frågerekommendation, och informera om utformningen av framtida frågerekommendationssystem.
Dessutom, Liu et al. REF utforska de faktorer som påverkar användarnas svarsbeteende i YA (t.ex. när användare tenderar att svara och hur de väljer frågor).
2,677,918
Modeling answerer behavior in collaborative question answering systems
{'venue': 'in ECIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,429
Konvolutionella neurala nätverk [3] har visat sig användbara inom många områden, inklusive datorseende [1, 4, 5], ljudbehandling [6, 7] och behandling av naturligt språk [8]. Dessa kraftfulla modeller kommer dock till stor kostnad i träningstid. För närvarande gör långa utbildningsperioder experiment svåra och tidskrävande. I detta arbete överväger vi en standardarkitektur [1] som är tränad i Imagenetdataset [2] för klassificering och undersökning av metoder för att påskynda konvergens genom att parallellisera utbildning över flera GPU:er. I detta arbete använde vi upp till 4 NVIDIA TITAN GPUs med 6 GB RAM. Medan våra experiment utförs på en enda server, våra GPU:er har delade minnesutrymmen, och precis som i den distribuerade inställningen, kommunikation overheads är en viktig hänsyn. Till skillnad från tidigare arbete [9, 10, 11] siktar vi inte på att förbättra den underliggande optimeringsalgoritmen. Istället isolerar vi effekten av parallellism, medan vi använder standard övervakad back-propagation och synkron mini-batch stokastisk lutning nedstigning. Vi överväger två grundläggande tillvägagångssätt: data och modellparallalism [9]. I data parallellism, är minibatch delas över flera GPUs som visas i fikon. 3............................................................... Varje GPU ansvarar för beräkning av lutningar med avseende på alla modellparametrar, men gör det med hjälp av en delmängd av proverna i mini-batchen. Detta är den mest enkla parallelliseringsmetoden, men det kräver betydande kommunikation mellan GPU, eftersom varje GPU måste kommunicera både gradienter och parametervärden på varje uppdatering steg. Dessutom måste varje GPU använda ett stort antal prover för att effektivt utnyttja den mycket parallella enheten; alltså, mini-batch storlek effektivt multipliceras med antalet GPU:er, hämmar konvergens. I vårt genomförande, hittar vi en hastighetsuppgång på 1
Facebook REF antar både data-parallelism och modell-parallelism för att träna multi-GPU maskiner.
15,336,613
Multi-GPU Training of ConvNets
{'venue': 'ICLR 2013', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,430
Vi studerar några Riemannska mått på utrymmet för släta regelbundna kurvor i planet, betraktas som omloppsbana utrymme kartor från S 1 till planet modulo gruppen av diffeomorphisms av S 1, fungerar som reparameterizations. I synnerhet undersöker vi metriska för en konstant A > 0: där δc är kurvans krökning c och h, k är normala vektorfält till c. Termen Aσ 2 är en sorts geometrisk Tikhonov legalisering eftersom, för A = 0, det geodesiska avståndet mellan alla 2 distinkta kurvor är 0, medan för A > 0 avståndet alltid är positivt. Vi ger några lägre gränser för avståndsfunktionen, härleder den geodesiska ekvationen och sektionskurvan, löser den geodesiska ekvationen med enkla ändpunkter numeriskt, och ställer några öppna frågor. Utrymmet har en intressant split personlighet: bland stora släta kurvor, alla dess sektionskurvor är ≥ 0, medan kurvor med hög krökning eller perturbationer av hög frekvens, kurvorna är ≤ 0. Datum: 21 november 2005.
Michor och Mumford REF studerade Riemanns krökningsspänning på utrymmet för släta plana kurvor och gav en uttrycklig formel för sektionskurvan.
2,067,666
Riemannian geometries on spaces of plane curves
{'venue': 'J. Eur. Math. Soc. (JEMS', 'journal': None, 'mag_field_of_study': ['Mathematics']}
10,431
Abstrakt. Motiverad av problemet med att undvika dubbelarbete i lagringssystem, Bellare, Keelveedhi och Ristenpart har nyligen lagt fram begreppet Message-Locked Encryption (MLE) system som subsumerar konvergent kryptering och dess varianter. Sådana system är inte beroende av permanenta hemliga nycklar, utan kryptera meddelanden med hjälp av nycklar som härrör från meddelandena själva. Vi stärker de säkerhetsbegrepp som Bellare et al föreslår. Genom att ta hänsyn till klartextdistributioner som kan vara beroende av systemens offentliga parametrar. Vi hänvisar till sådana ingångar som låsberoende meddelanden. Vi konstruerar två system som uppfyller våra nya säkerhetsbegrepp för meddelandelåst kryptering med låsberoende meddelanden. Vår huvudkonstruktion avviker från Bellare et al. genom att undvika användning av komponenter i chiffertext som härletts deterministiskt från meddelandena. Vi utformar en helt randomiserad plan som stöder en algoritm för jämlikhetstestning definierad på chiffertexterna. Vår andra konstruktion har en deterministisk chiffertextkomponent som möjliggör effektivare jämlikhetstester. Säkerhet för låsberoende meddelanden håller fortfarande under beräkningsantaganden på meddelandedistributioner som produceras av angriparen. I båda våra system overhead i längden av chiffertext är endast additiv och oberoende av meddelandet längd.
Abadi m.fl. REF stärkte det säkerhetskoncept som Bellare M et al föreslog. Genom att beakta den klartextfördelning som kan vara beroende av systemets gemensamma parametrar.
1,315,646
Message-locked encryption for lock-dependent messages
{'venue': 'In Advances in Cryptology–CRYPTO 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,432
Trots de senaste framstegen i AI planering, många riktmärken förblir utmanande för nuvarande planerare. På många områden kan prestandan hos en planerare förbättras avsevärt genom att upptäcka och utnyttja information om domänstrukturen som inte uttryckligen kodas i den ursprungliga PDDL-formuleringen. I detta dokument presenterar och jämför vi två automatiserade metoder som lär sig relevant information från tidigare erfarenheter inom en domän och använder den för att lösa nya problemfall. Våra metoder har en gemensam strategi i fyra steg. Först analyseras en domän och strukturell information extraheras, sedan skapas makrooperatörer baserade på den tidigare upptäckta strukturen. Ett filtrerings- och rankningsförfarande väljer de mest användbara makrooperatörerna. Slutligen används de valda makron för att påskynda framtida sökningar. Vi har framgångsrikt använt ett sådant tillvägagångssätt i den fjärde internationella planeringstävlingen IPC-4. Vårt system, Macro-FF, utökar Hoffmanns toppmoderna planerare FF 2.3 med stöd för två typer av makrooperatörer, och med tekniska förbättringar. Vi visar effektiviteten i våra idéer om riktmärken från internationella planeringstävlingar. Våra resultat tyder på en stor minskning av sökansträngningen inom de komplexa områden där strukturell information kan härledas.
Macro-FF REF, en algoritm som identifierar och cache makron, tävlade vid den fjärde internationella planeringstävlingen.
14,824,355
Macro-FF: Improving AI Planning with Automatically Learned Macro-Operators
{'venue': 'Journal Of Artificial Intelligence Research, Volume 24, pages 581-621, 2005', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,433
I detta dokument tar vi upp problemet med energimedveten cacheplacering i trådlösa ad hoc-nätverk. Vi anser att ett nätverk som består av en server med ett gränssnitt till det trådbundna nätverket, och några noder som kräver tillgång till den information som lagras på servern. För att minska tillgången latent i en sådan kommunikationsmiljö, är en effektiv strategi cacing serverinformation vid vissa noder som distribueras över nätverket. Caching kan dock avsevärt påverka systemets energiutgifter, till exempel medför spridningen av information ytterligare energibörda. Eftersom trådlösa enheter har begränsade mängder tillgänglig energi, måste vi utforma caching strategier som optimalt kompromissar mellan energiförbrukning och tillgång latens. Vi poserar vårt problem som ett heltal linjärt program. Vi visar att detta problem är detsamma som ett specialfall av den anslutna anläggningen plats problem, som är känd för att vara NP-hård. Vi utformar en polynomal algoritm som ger en suboptimal lösning. Den föreslagna algoritmen gäller alla godtyckliga nätverk topologi och kan genomföras på ett distribuerat och asynkront sätt. När det gäller trädtopologi ger vår algoritm den optimala lösningen. När det gäller en godtycklig topologi finner den en genomförbar lösning med ett objektivt funktionsvärde inom en faktor på 6 av det optimala värdet. Denna prestanda är mycket nära den bästa approximativa lösning känd idag, som erhålls på ett centraliserat sätt. Vi jämför prestandan av vår algoritm mot tre kandidat caching system, och visar genom omfattande simulering att vår algoritm konsekvent överträffar dessa alternativa system. * Detta arbete finansierades delvis av
I samband med trådlösa ad hoc-nät tog REF itu med problemet med optimal cacheplacering i statiska ad hoc-nät och föreslog en girig algoritm för att minimera den viktade summan av energiutgifter och accessfördröjning.
15,650,984
Energy-efficient caching strategies in ad hoc wireless networks
{'venue': "MobiHoc '03", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,434
Likhetsåtgärder för Abstract-Sentence spelar en allt viktigare roll i textrelaterad forskning och tillämpningar inom områden som t.ex. textutvinning, hämtning av webbsidor och dialogsystem. Befintliga metoder för beräkning av meningslikhet har använts från metoder som används för dokument med lång text. Dessa metoder bearbetar meningar i ett mycket högdimensionellt utrymme och är följaktligen ineffektiva, kräver mänsklig input, och är inte anpassningsbara till vissa tillämpningsområden. Detta dokument fokuserar direkt på att beräkna likheten mellan mycket korta texter av meningslängd. Den presenterar en algoritm som tar hänsyn till semantisk information och ordordning information underförstått i meningarna. Den semantiska likheten mellan två meningar beräknas med hjälp av information från en strukturerad lexisk databas och från corpusstatistik. Användningen av en lexisk databas gör det möjligt för vår metod att modellera kunskap om mänskligt sunt förnuft och införlivandet av corpus-statistik gör att vår metod kan anpassas till olika områden. Den föreslagna metoden kan användas i en mängd olika tillämpningar som innefattar textkunskap representation och upptäckt. Experiment på två uppsättningar av utvalda mening par visar att den föreslagna metoden ger en likhetsmått som visar en betydande korrelation till mänsklig intuition.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF presenterar en algoritm som tar hänsyn till semantisk information och ordordningsinformation underförstådd i meningarna.
12,007,882
Sentence similarity based on semantic nets and corpus statistics
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
10,435
Abstract-Vi anser att ett storskaligt trådlöst nätverk, men med en låg densitet av noder per enhet område. Interferenser är då mindre kritiska, i motsats till konnektivitet. I detta dokument studeras den senare egendomen för både ett rent ad hoc-nät och ett hybridnät, där fasta basstationer kan nås i flera humlestationer. Vi antar här att kraftbegränsningar modelleras av ett maximalt avstånd över vilket två noder inte är (direkt) anslutna. Vi finner att införandet av ett glest nät av basstationer avsevärt bidrar till att öka uppkopplingen, men bara när nodtätheten är mycket större i den ena dimensionen än i den andra. Vi förklarar resultaten med perkoleringsteori. Vi får analytiska uttryck för sannolikheten för anslutning i 1-dim. Fallet. Vi visar också att flaskhalsar är oundvikliga vid en låg rumslig täthet av noder. Resultat från faktiska populationsdata bekräftar våra resultat.
Samma slutsats gäller även för bandnät (nätverk av oändlig längd i en dimension och en ändlig längd i den andra) REF.
1,384,760
Connectivity in ad-hoc and hybrid networks
{'venue': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'journal': 'Proceedings.Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies', 'mag_field_of_study': ['Computer Science']}
10,436
Storskaliga Internettjänster kräver en datorinfrastruktur som på lämpligt sätt kan beskrivas som ett datorsystem i lagerstorlek. Kostnaden för att bygga datacenteranläggningar som kan leverera en viss kraftkapacitet till en sådan dator kan konkurrera med de återkommande energiförbrukningskostnaderna själva. Därför finns det starka ekonomiska incitament för att driva anläggningar så nära maximal kapacitet som möjligt, så att de icke återkommande kostnaderna för anläggningen kan skrivas av på bästa sätt. Detta är svårt att uppnå i praktiken på grund av osäkerhet i fråga om utrustningseffektklassificeringar och på grund av att energiförbrukningen tenderar att variera avsevärt med den faktiska datorverksamheten. Effektiva strategier för kraftförsörjning behövs för att avgöra hur mycket datorutrustning som kan hanteras på ett säkert och effektivt sätt inom en given maktbudget. I detta dokument presenterar vi de sammanlagda energianvändningen egenskaper för stora samlingar av servrar (upp till 15 tusen) för olika klasser av applikationer under en period på cirka sex månader. Dessa observationer gör det möjligt för oss att utvärdera möjligheterna att maximera användningen av den utplacerade kraftkapaciteten hos datacenter, och bedöma riskerna med att överteckna den. Vi finner att även i väljusterade applikationer finns det ett märkbart gap (7 -16 %) mellan uppnådd och teoretisk aggregateffektanvändning på klusternivå (tusentals servrar). Klyftan ökar till nästan 40 % i hela datacenter. Detta rum kan användas för att installera ytterligare beräkningsutrustning inom samma effektbudget med minimal risk för att överskrida den. Vi använder vårt modelleringsramverk för att uppskatta potentialen hos krafthanteringssystem för att minska toppeffekt och energianvändning. Vi finner att möjligheterna till kraft och energibesparingar är betydande, men större på klusternivå (tusentals servrar) än på racknivå (tiotal). Slutligen hävdar vi att systemen måste vara effekteffektiva i hela aktivitetsområdet, och inte bara på toppprestandanivå.
Fläkt et al. presenterade den aggregerade effekt användningsegenskaper för stora samlingar av servrar baserade på power capping REF.
10,862,360
Power provisioning for a warehouse-sized computer
{'venue': "ISCA '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,437
I dag och i dag spelar världens datautvinning en avgörande roll för att förutsäga sjukdomar inom den medicinska industrin. Stroke är en livshotande sjukdom som har rankats som tredje ledande dödsorsak i stater och utvecklingsländer. stroken är en ledande orsak till allvarlig, långvarig funktionsnedsättning i USA. Den tid det tar att återhämta sig från stroke beror på patienter & apos; svårighetsgrad. Antal arbeten har utförts för att förutsäga olika sjukdomar genom att jämföra prestanda prediktiva data mining. Här klassificeringsalgoritmer som Decision Tree, Naive Bayes och Neural Network används för att förutsäga förekomsten av stroke sjukdom med relaterat antal attribut. I vårt arbete används principkomponentanalysalgoritm för att minska dimensionerna och den bestämmer de attribut som innebär mer mot förutsägelse av stroke och förutspår om patienten lider av stroke eller inte. - Kohn, L. T., Corrigan, J. M., och Donaldson, M. S., att fela är människa: bygga ett säkrare hälsosystem. Institutet för medicin (IOM).
A. Sudha, et al Ref har föreslagit en principkomponentanalysalgoritm användes för att minska dimensionerna och som har fastställts de attribut som innebär mer mot förutsägelse av stroke och förutspår om patienten lider av stroke eller inte.
18,088,524
Effective Analysis and Predictive Model of Stroke Disease using Classification Methods
{'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']}
10,438
Abstract-This paper ger en kort översikt och en vision för att införa en Quality of Experience-funktion (QoE) för beställtjänster eller för premiumanvändare, baserad på Software-Definited Networking (SDN). Den föreslagna QoE-tjänsten kan dra nytta av SDN:s globala resursvy och kompletterande QoE-mått för att säkerställa önskad prestanda för OTT-tillämpningar genom att anta trafikstyrningsmekanismer. Detta dokument introducerar QoE-Service-konceptet och SDN-arkitekturen och presenterar en uppsättning användningsfall som visar dess lämplighet och tillämplighet på LTE-nätverk. Eftersom mobilnätsoperatörerna står inför en enorm trafikökning på grund av införandet av nya mobila enheter och tillämpningar förblir deras intäkter nästan konstanta [1]. OverThe-Top (OTT) leverantörer, å andra sidan, vinner fart med ökande intäkter direkt från användare, medan MNOs som stöder dessa OTT-tjänster inte är involverade i en sådan intäktsslinga. Detta dokument introducerar konceptet "QoE-Serv" (som kallas QoEServ) som gör det möjligt för MNOs att erbjuda förbättrad OTT-tjänstprestanda på begäran eller för OTT premiumanvändare. QoE-Serv är en SDN-baserad funktion som bygger på en global nätverksresursvy, med beaktande av särskilda QoS-parametrar (t.ex. paketfördröjning, förlustfrekvens, dataflöde osv.) med avseende på en specifik applikation eller användare. QoE-Serv syftar till att tillhandahålla en analys av den valda applikationens/tjänstens prestanda genom att kartlägga QoS-åtgärder till QoE och utlösa trafikstyrningsmekanismer för att säkerställa QoE. På så sätt kan QoE-Serv göra det möjligt för operatörer att komma in i intäktsslingan mellan OTT-leverantörer och abonnenter, antingen genom att införa en avgift för denna tjänst eller genom att erbjuda den som en avancerad funktion för premiumanvändare. Detta dokument ger QoE-Serv visionen, den stödjande SDN-arkitekturen och en uppsättning användningsfall som visar dess tillämplighet i LTE.
Liotou m.fl. REF införde ramen för en SDN-baserad QoE-tjänst för att garantera QoE-nivå för on demand-tjänster av Over The Top (OTT)-tillämpningar genom att övervaka nätverksparametrar via en SDN-controller.
11,385,418
An SDN QoE-service for dynamically enhancing the performance of OTT applications
{'venue': '2015 Seventh International Workshop on Quality of Multimedia Experience (QoMEX)', 'journal': '2015 Seventh International Workshop on Quality of Multimedia Experience (QoMEX)', 'mag_field_of_study': ['Computer Science']}
10,439
Abstract-Vi undersöker fånga effekterna för ett trådlöst lokalt nätverk (LAN) i närvaro av multipat, skuggning och nära-långa effekter. Prestandan hos protokollen för trådlös mediaåtkomst (MAC) med Rayleigh blekning, skuggning och fånga effekt analyseras. Vi anser att multi-access/kollision-undvikelse-protokoll (CSMA/CA) är de trådlösa MAC-protokollen, eftersom CSMA/CA-protokollen är baserade på standarden för trådlösa LAN:s IEEE 802.11. Vi analyserar och jämför kanalgenomströmning och paketfördröjning för tre typer av CSMA/CA protokoll: grundläggande CSMA/CA, stopp-och-vänta automatisk begäran (SW ARQ) CSMA/CA, och fyrvägs handskakning (4-WH) CSMA/CA. Vi beräknar fånga sannolikheten för en åtkomstpunkt (AP) i en kanal med Rayleigh blekning, skuggande, och nära-far effekter, och vi härleder genomströmning och paket fördröjning för de olika protokollen. Vi har funnit att prestandan hos CSMA/CA i en radiokanalmodell är 50% lägre än i en felfri kanalmodell vid lågtrafikbelastning, medan CSMA/CA:s genomströmning och paketfördröjning i en radiokanalmodell visar bättre prestanda än i en felfri kanalmodell med hög trafikbelastning. Vi fann också att 4-WH CSMA/CA-protokollet är överlägsen de andra CSMA/CA-protokollen i högtrafikbelastning. Index Terms-Capture effekt, CSMA/CA, MAC protokoll, Rayleigh blekning, trådlöst LAN.
REF undersöker fångsteffekterna för ett trådlöst lokalt nätverk (LAN) i närvaro av multipat, skuggning och nära-långa effekter.
55,620,924
Capture effects of wireless CSMA/CA protocols in Rayleigh and shadow fading channels
{'venue': None, 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
10,440
I denna studie undersöks undergruppen klimatmodell ensemblestorlek som krävs för att reproducera vissa statistiska egenskaper från en hel ensemble. De ensembleegenskaper som undersökts är rotens genomsnittliga kvadratfel, ensemblemedelvärdet och standardavvikelsen. Subset-ensembler skapas med hjälp av åtgärder som tar hänsyn till simuleringsprestandan ensam eller inkluderar ett mått på simuleringsoberoende i förhållande till andra ensemblemedlemmar. Det konstateras att självständighetsåtgärden kan identifiera mindre undergrupper av ensembler som behåller de önskade fullständiga ensembleegenskaperna än någon av de prestationsbaserade åtgärderna. Det föreslås att modelloberoende beaktas när man väljer ensembleundergrupper eller skapar nya ensembler.
REF beräknade medelvärdet för det absoluta felet, rotmedelvärdet för kvadratfelet, den rumsliga korrelationen och bråktalspoängen för enskilda händelser för att skapa undergrupper av ensembler, med beaktande av simuleringsprestanda.
155,021,417
Optimally choosing small ensemble members to produce robust climate simulations
{'venue': None, 'journal': 'Environmental Research Letters', 'mag_field_of_study': ['Economics']}
10,441
Syntetisering av högkvalitativa bilder från textbeskrivningar är ett utmanande problem i datorseendet och har många praktiska tillämpningar. Prover som genereras av befintliga text-till-bild-metoder kan grovt återspegla betydelsen av de givna beskrivningarna, men de misslyckas med att innehålla nödvändiga detaljer och levande objektdelar. I detta dokument föreslår vi Stacked Generative Adversarial Networks (StackGAN) att generera 256×256 fotorealistiska bilder konditionerade på textbeskrivningar. Vi delar upp det svåra problemet i mer hanterbara delproblem genom en skissrefinieringsprocess. Stage-I GAN skisserar objektets primitiva form och färger baserat på den givna textbeskrivningen, vilket ger Stage-I lågupplösta bilder. Steg II GAN tar Stage-I resultat och textbeskrivningar som ingångar, och genererar högupplösta bilder med fotorealistiska detaljer. Den kan rätta till brister i steg I-resultaten och lägga till övertygande detaljer i förfiningsprocessen. För att förbättra mångfalden av de syntetiserade bilderna och stabilisera utbildningen av den villkorliga-Gan, introducerar vi en ny Conditioning Augmentation teknik som uppmuntrar jämnhet i latent konditioneringsgrenröret. Omfattande experiment och jämförelser med state-of-the-arts på referensdatauppsättningar visar att den föreslagna metoden uppnår betydande förbättringar när det gäller att generera fotorealistiska bilder som är betingade av textbeskrivningar.
I Stacked GANs (Stackgan) REF, två GANs arrangeras sekventiellt där Stage-I GAN genererar låg upplösning bilder ges textbeskrivning och Stage-II GAN förbättrar den genererade bilden till högupplösta bilder.
1,277,217
StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,442
Institutionen för informationsvetenskap är en av sju institutioner som utgör handelshögskolan vid universitetet i Otago. Institutionen erbjuder kurser som leder till ett huvudämne inom informationsvetenskap inom BCom, BA och BSc. Förutom grundutbildning är institutionen också starkt engagerad i forskarutbildningsprogram som leder till MCom, MA, MSc och doktorsexamen. Forskningsprojekt inom rumslig informationsbehandling, uppkopplingsbaserade informationssystem, programvaruutveckling och programvaruutveckling, informationsteknik och databas, programvarumått, distribuerade informationssystem, multimediainformationssystem och informationssystemsäkerhet stöds särskilt väl. De åsikter som framförs i detta dokument är inte nödvändigtvis från avdelningen som helhet. Författarna ansvarar ensam för riktigheten i den information som presenteras i detta dokument. Upphovsrätten finns kvar hos upphovsmännen. Tillstånd att kopiera för forsknings- eller undervisningsändamål beviljas på villkor att författarna och serien ges vederbörligt erkännande. Mångfaldigande i någon form för andra ändamål än forskning eller undervisning är förbjudet om inte ett skriftligt förhandsgodkännande har erhållits från upphovsmännen. Detta dokument representerar arbete hittills och behöver inte nödvändigtvis ligga till grund för författarnas slutliga slutsatser om detta ämne. Det är dock troligt att tidningen kommer att framträda i någon form i en tidskrift eller i ett konferensförfarande inom en snar framtid. Författarna skulle gärna få korrespondens i samband med någon av de frågor som tas upp i detta dokument, eller för efterföljande publiceringsuppgifter. Skriv direkt till författarna på nedanstående adress. (Detaljuppgifter om sluttidskrifter/konferenspublikationer för dessa artiklar finns också på institutionens publikationers webbsidor: http://www.otago.ac.nz/informationsvetenskap/pubs/). All annan korrespondens rörande serien ska sändas till DPS-samordnaren. Abstrakt. I detta dokument föreslår vi en mekanism för normbildning baserad på förebilder. Mekanismen använder sig av begreppet normativ rådgivning där förebilderna ger råd till följareagenterna. Vår mekanism är uppbyggd med hjälp av två skikt av nätverk, det sociala länkskiktet och ledarskapslagret. Det sociala länknätet representerar hur agenter är anslutna till varandra. Ledarnätverket representerar det nätverk som bildas utifrån den roll som varje agent spelar på det sociala länknätet. De två typerna av roller är ledare och anhängare. Vi presenterar våra rön om hur normer uppstår i ledarskapsnätverket när topologin för det sociala länknätet förändras. De tre typer av sociala länknät som vi har experimenterat med är helt uppkopplade nätverk, slumpmässiga nätverk och skalfria nätverk.
I det senaste arbetet har begreppet förebilder studerats och dess effekt på normens uppkomst i nätverk REF.
13,195,116
Role Model Based Mechanism For Norm Emergence In Artificial Agent Societies
{'venue': 'COIN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,443
Under de senaste åren har neurala nätverk blivit mycket populära i alla typer av förutsägelser problem. I detta papper, flera feed-forward artificiella neurala nätverk (ANN) med olika konfigurationer används i förutsägelsen av Parkinsons sjukdom (PD) testade individer, baserat på extraherade funktioner från 26 olika röstprover per individ. Resultaten valideras med hjälp av systemet "permission-one-subject-out" (LOSO). Få urvalsförfaranden baserade på Pearsons korrelationskoefficient, Kendalls korrelationskoefficient, huvudkomponentanalys och självorganiserande kartor har använts för att öka algoritmernas prestanda och för att minska data. Det bästa testnoggrannhetsresultatet har uppnåtts med Kendalls korrelationskoefficientbaserade funktionsval, och de mest relevanta röstproven är erkända. Flera ANN har visat sig vara den bästa klassificeringstekniken för diagnos av PD utan användning av förfarandet för urval av funktioner (om rådata). Slutligen finjusteras ett neuralt nätverk, och en testnoggrannhet på 86,47% uppnåddes.
REF använde funktionsvalsförfaranden baserade på Pearsons och Kendalls korrelationskoefficienter, huvudsaklig komponentanalys (PCA) och självorganiserande kartor (SOM) och artificiella neurala nätverk (ANN) med flera feed-forward-nätverk (ANN) för klassificering, med en noggrannhet på 86,47 %.
58,560,251
Classifying Parkinson’s Disease Based on Acoustic Measures Using Artificial Neural Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']}
10,444
Vi presenterar en metod för 3D-objektdetektering och poserar uppskattning från en enda bild. I motsats till nuvarande tekniker som endast regresserar 3D-orienteringen av ett objekt, vår metod regresserar först relativt stabila 3D-objektegenskaper med hjälp av ett djupt konvolutionellt neuralt nätverk och sedan kombinerar dessa uppskattningar med geometriska begränsningar som tillhandahålls av en 2D-objekt avgränsande låda för att producera en komplett 3D-gränsande låda. Den första nätverksutgången uppskattar 3D-objektorienteringen med hjälp av en ny hybrid diskret-kontinuerlig förlust, som avsevärt överträffar L2-förlusten. Den andra produktionen regresserar 3D-objekt dimensionerna, som har relativt lite varians jämfört med alternativ och kan ofta förutsägas för många objekttyper. Dessa uppskattningar, i kombination med de geometriska begränsningar för översättning som införs av 2D-gränsrutan, gör det möjligt för oss att återställa en stabil och korrekt 3D-objekt pose. Vi utvärderar vår metod på det utmanande KITTI-objektdetekteringsriktmärket [2] både på det officiella måttet för 3D-orienteringsuppskattning och på noggrannheten hos de erhållna 3D-begränsande rutorna. Även om vår metod är konceptuellt enkel, överträffar den mer komplexa och beräkningsmässigt dyra metoder som utnyttjar semantisk segmentering, till exempel segmentering på nivå och platta markposter [4] och upptäckt underkategori [23] [24]. Vår diskret-kontinuerliga förlust ger också toppmoderna resultat för 3D synvinkel uppskattning på Pascal 3D+ dataset [26]. * Arbete som praktikant på Zoox, Inc.
Mousavian föreslog två djupa nätverk för 3D begränsande ruta uppskattning REF.
8,694,036
3D Bounding Box Estimation Using Deep Learning and Geometry
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
10,445
Abstract-Distribuerade program som kör inuti molnsystem är benägna att prestanda anomalier på grund av olika skäl såsom resurs stridigheter, programvara buggar och maskinvarufel. En stor utmaning för att diagnostisera ett onormalt distribuerat program är att hitta felkomponenterna. I detta papper presenterar vi en svart-box online fel lokaliseringssystem som heter FChain som kan lokalisera felaktiga komponenter omedelbart efter en prestanda anomali upptäcks. FChain upptäcker först den inledande tiden av onormala beteenden på olika komponenter genom att skilja den onormala förändringspunkten från många förändringspunkter som orsakas av normala arbetsbelastningsfluktuationer. Felkomponenter identifieras sedan baserat på onormala förändringsförökningsmönster och beroendeförhållanden mellan komponenter. FChain utför körtidsvalidering för att ytterligare filtrera bort falska alarm. Vi har implementerat FChain ovanpå Xen-plattformen och testat den med hjälp av flera referensapplikationer (RUBiS, Hadoop och IBM System S). Våra experimentella resultat visar att FChain snabbt kan lokalisera de felaktiga komponenterna med hög noggrannhet inom några sekunder. FChain kan uppnå upp till 90 % högre precision och 20 % högre återkallande än befintliga system. FChain är icke-inträngande och lättviktig, vilket innebär mindre än 1% overhead till molnsystemet.
FChain REF övervakar driften av distribuerade applikationer för att upptäcka prestandaavvikelser och för att identifiera den felaktiga komponenten genom att rekonstruera spridningsmönstren för onormala bytespunkter.
6,384,187
FChain: Toward Black-Box Online Fault Localization for Cloud Systems
{'venue': '2013 IEEE 33rd International Conference on Distributed Computing Systems', 'journal': '2013 IEEE 33rd International Conference on Distributed Computing Systems', 'mag_field_of_study': ['Computer Science']}
10,446
Abstrakt. Kontroll av säkerhetsprotokoll har varit ett mycket aktivt forskningsområde sedan 1990-talet. I detta dokument undersöks olika tillvägagångssätt på detta område, med beaktande av kontrollen i den symboliska modellen, liksom de nyare tillvägagångssätt som bygger på beräkningsmodellen eller som verifierar protokollgenomföranden snarare än specifikationer. Dessutom beskriver vi kortfattat vår symboliska säkerhetsprotokoll kontrollant ProVerif och placera det bland dessa metoder. Säkerhetsprotokoll är program som syftar till att säkra kommunikation på osäkra nätverk, till exempel Internet, genom att förlita sig på kryptografiska primitiva. Säkerhetsprotokoll är allmänt förekommande: de används till exempel för e-handel (t.ex. protokollet TLS [109], som används för https:// URLs), banktransaktioner, mobiltelefon- och WiFi-nätverk, RFID-taggar och e-voting. Utformningen av säkerhetsprotokoll är dock särskilt felbenägen. Detta kan till exempel illustreras med det mycket berömda Needham-Schroeder-protokollet [160], där Lowe hittade en brist [147] 17 år efter dess publicering. Även om stora framsteg har gjorts sedan dess finns det fortfarande många brister i de nuvarande säkerhetsprotokollen (se t.ex. http://www.opensl.org/news/ och http://www.openssh.org/security.html). Säkerhetsfel kan få allvarliga konsekvenser, vilket leder till förlust av pengar eller till att användarna förlorar förtroendet för systemet. Dessutom, säkerhetsfel kan inte upptäckas genom funktionell programvara testning eftersom de visas endast i närvaro av en illvillig motståndare. Automatiska verktyg kan därför vara till stor hjälp för att få faktiska garantier för att säkerhetsprotokoll är korrekta. Detta är ett skäl till att kontrollen av säkerhetsprotokoll har varit ett mycket aktivt forskningsområde sedan 1990-talet och fortfarande är mycket aktiv. Syftet med denna undersökning är att sammanfatta de resultat som uppnåtts på detta område. På grund av det stora antalet dokument om verifiering av säkerhetsprotokoll och det begränsade utrymmet var vi tvungna att utelämna många av dem. Vi anser att vi fortfarande presenterar företrädare för huvudstrategierna. Dessutom, Sect. 2.2 Kort beskriver vårt symboliska verifieringsverktyg ProVerif. Vi illustrerar begreppet säkerhet protokoll med följande exempel, en förenklad version av Denning-Sacco offentlig nyckel distribution protokoll [108].
Det har varit ett omfattande arbete med den formella kontrollen av viktiga utbytesprotokoll, se till exempel den senaste undersökningen REF.
2,109,089
Security protocol verification: Symbolic and computational models
{'venue': 'PRINCIPLES OF SECURITY AND TRUST - FIRST INTERNATIONAL CONFERENCE, POST 2012, VOLUME 7215 OF LECTURE NOTES IN COMPUTER SCIENCE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,447
Nyligen genomförda studier på den kontrariska sårbarheten i neurala nätverk har visat att modeller som utbildats för att vara mer robusta mot kontradiktoriska attacker uppvisar mer tolkningsbara saltkartor än sina icke-robusta motsvarigheter. Vi strävar efter att kvantifiera detta beteende genom att överväga anpassningen mellan indatabild och saliency karta. Vi gissar att när avståndet till beslutsgränsen ökar, så ökar även anpassningen. Detta samband är strikt sant när det gäller linjära modeller. Vi bekräftar dessa teoretiska resultat med experiment baserade på modeller tränade med en lokal Lipschitz legalisering och identifiera var den icke-linjära naturen av neurala nätverk försvagar relationen.
REF förklarar att lineariserad robusthet (avstånd från prov till beslutsgräns) ökar i takt med att anpassningen mellan Jacobian och ingångsbilden växer.
150,374,025
On the Connection Between Adversarial Robustness and Saliency Map Interpretability
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,448
Det finns en explosion av samhällsgenererat multimedieinnehåll på nätet. I synnerhet Flickr utgör ett 200 miljoner fotodelningssystem där användarna deltar efter en mängd olika sociala motiv och teman. Flickr-grupper används i allt högre grad för att underlätta en uttrycklig definition av gemenskaper som delar gemensamma intressen, vilket leder till stora mängder innehåll (t.ex. bilder och tillhörande taggar) om specifika ämnen. Men enligt vår kunskap är en fördjupad analys av användarbeteendet i Flickr-grupper fortfarande öppen, liksom förekomsten av effektiva verktyg för att hitta relevanta grupper. Med hjälp av ett urval på cirka 7 miljoner userphotos och cirka 51000 Flickr grupper presenterar vi en ny statistisk gruppanalys som belyser relevanta mönster av photo-to-group delning praxis. Dessutom föreslår vi en ny ämnesbaserad representationsmodell för grupper, beräknad från aggregerade grupptaggar. Grupper representeras som multinomiska fördelningar över semantiskt meningsfulla latenta ämnen inlärda via oövervakad probabilistisk ämnesmodellering. Vi visar att denna representation är användbar för att automatiskt upptäcka grupper av grupper och ämnesexpertgrupper, för att utforma nya gruppsökningsstrategier och för att få nya insikter om Flickr-gruppernas semantiska struktur.
REF presenterar en storskalig analys av Flickr-grupper och föreslår ett ämnesmodelleringssätt för att representera en grupp som bygger på samtidig förekomst av grupper och taggar.
7,322,766
Analyzing Flickr groups
{'venue': "CIVR '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,450
Förutsäga populariteten av online-videor är viktigt för videostreaming innehållsleverantörer. Detta är ett utmanande problem på grund av följande två skäl. För det första är problemet både "bredt" och "djupt". Det vill säga, det beror inte bara på ett brett spektrum av funktioner, men också vara mycket icke-linjär och komplex. För det andra kan flera konkurrenter vara inblandade. I detta dokument föreslår vi en allmän prognosmodell med hjälp av multi-task learning (MTL) modulen och relationsnätverket (RN) modulen, där MTL kan minska övermontering och RN kan modellera relationer mellan flera konkurrenter. Experimentella resultat visar att vårt föreslagna tillvägagångssätt avsevärt ökar noggrannheten när det gäller att förutsäga de totala tittarsiffrorna för TV-serier med RN- och MTL-moduler.
Mao Ref föreslog en multitasking learning (MTL) modul och ett relationsnätverk (RN).
35,872,283
Predicting the Popularity of Online Videos via Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,451
Det hot som skadliga insiders utgör mot organisationer är ett betydande problem. I detta dokument undersöker vi uppgiften att upptäcka sådana insiders genom en ny metod för att modellera en användares normala beteende för att upptäcka avvikelser i det beteende som kan tyda på en attack. Vi använder oss särskilt av dolda Markov-modeller för att lära oss vad som utgör normalt beteende och sedan använda dem för att upptäcka betydande avvikelser från det beteendet. Våra resultat visar att detta tillvägagångssätt verkligen är framgångsrikt när det gäller att upptäcka insiderhot, och att det i synnerhet är möjligt att exakt lära sig en användares beteende. Dessa inledande tester förbättrar befintlig forskning och kan ge ett användbart tillvägagångssätt för att ta itu med denna del av den insiderhotsutmaningen. Insiderhot; Anomaly detektion system; Maskininlärning Organisationella datorsystem hotas alltmer av insiders. Breach Level Index, som spårar offentligt offentliggjorda överträdelser, visar att nästan 40 % av dataintrång tillskrivs skadliga insiders eller oavsiktlig förlust på grund av insiders [6]. Det är uppenbart att insiderhot nu utgör en betydande del av de cyberattacker en organisation utsätts för, även om vi inte tar hänsyn till de orapporterade incidenterna. Dessutom är de ofta den dyraste typen av angrepp [14] på grund av den höga grad av förtroende och tillgång som en insider ges. I takt med att insiderhoten har blivit allt vanligare har det gjorts många framsteg inom både industrin och forskningen för att förebygga och upptäcka angrepp. På programnivå upprätthåller CERT-divisionen vid CMU ett omfattande forskningsdirektiv om insiderhot och betraktas som pionjärer inom området [2]. Ett av de viktigaste verktygen som används för att utforska insiderhot av CERT är System Dynamics diagram, som hjälper till att definiera relationer mellan olika prekursorer och faktorer som tyder på en attack. Istället för sepaFörpliktelse att göra digitala eller hårda kopior av hela eller delar av detta verk för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller kommersiell fördel och att kopior är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. Gradvis modellering av olika typer av insiderangrepp som görs i CERT-modellerna, en enhetlig ram för att karakterisera insiderattacker har presenterats i [11]. Ramen är särskilt kraftfull för att analysera fall, för att förstå beteenden som kan leda till en attack, orsakerna till en attack, de typer av attacker som kan inledas, och viktigast av allt, för att jämföra dessa uppgifter mellan andra fall. USA:s Department of Homeland Security publicerade en rapport 2014: "Combating the Insider Threat" [4]. Rapporten handlar främst om beteendeaspekterna av insiderhotet och hur vissa egenskaper kan tyda på en ökad sannolikhet för ett hot. Författarna föreslår att en av de bästa förebyggande åtgärderna är att utbilda individer att rapportera vissa beteenden som de observerar hos sina kamrater. Dessa "Karakteristik av Insiders som riskerar att bli ett hot" är vaga (Etisk flexibilitet, Introversion, etc.) och kan ofta vara svårt att kvantifiera. I rapporten ger de också en kort lista över beteendeindikatorer som kan signalera ett insiderhot, t.ex. "Remotely accesss the network under semestern, sjuk eller vid udda tider", som är lättare att observera. Understryka alla dessa råd är begreppet en baslinje för normalt beteende, vilket är en förutsättning för att försöka observera signifikanta avvikelser av ett visst beteende. Maskininlärningsbaserade metoder har varit centrala för arbetet med att upptäcka insiderhot. Åtgärder som en anställd tar över en tidsperiod på ett system (t.ex. inloggning/avgång, filåtkomst etc.) kan modelleras som en sekvens. De sekvenser som ses ofta eller på en vanlig basis, kan då betraktas som användarens normala beteende. Observerade åtgärder som inte liknar dessa normala sekvenser kan betraktas som avvikande beteende, som då kan tyda på ett potentiellt insiderhot eller åtminstone en händelse som ska undersökas. Detta är det tillvägagångssätt som föreslogs av Parveen och Thuraisingham [13]. De utvidgar detta resonemang och inför "koncept-drift", vilket är den gradvisa förändringen av en användares handlingar över tiden. De postulerar att detta mer exakt detekterar avvikande beteende, eftersom en användares handlingar ofta förändras över tiden (på grund av ökande skicklighet eller ansvar), och dessa förändringar skulle betraktas som onormala i en modell som inte förklarar avdriften. Detta är ett förnuftigt antagande att göra eftersom det strikt generaliserar det statiska beteendet och även introducerar den flexibilitet och anpassningsförmåga som förväntas av maskininlärning. Förutom att använda data som samlats in om en användares åtgärder tyder litteraturen om hur insiderhotet karakteriseras på att beteende- och personlighetsegenskaper är lika viktiga (om inte fler). Brdiczka m.fl. [1], kombinera strukturella 47
Arbetet med REF tillämpar en annan välkänd maskininlärningsteknik, dolda Markov-modeller, för att upptäcka insiderhot.
2,727,025
A New Take on Detecting Insider Threats: Exploring the Use of Hidden Markov Models
{'venue': "MIST '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,452
Gruvdriftsstudier i naturlig språktext använder ofta lexikal (t.ex. n-gram) och syntaktik (t.ex. grammatiska produktionsregler) funktioner med alla möjliga värden. I tidigare arbete med en corpus av akademiska uppsatser visade vi att så stora och glesa utrymmen kan orsaka svårigheter för funktionsval och föreslog en metod för att designa ett mer kompakt funktionsutrymme. Den föreslagna funktionen design bygger på efterbehandling en ämnesmodell för att extrahera argument och domänord. I detta dokument undersöker vi hur allmänt detta tillvägagångssätt är, genom att tillämpa vår metodik på en ny corpus av övertygande essäer. Våra experiment visar att ersätta n-gram och syntaktiska regler med funktioner och begränsningar med hjälp av extraherade argument och domänord avsevärt förbättrar argument gruvprestanda för övertygande essäer.
REF utvecklade ett argument gruvsystem för att analysera studenternas övertygande essäer baserade på argumentord och domänord.
5,440,111
Extracting Argument and Domain Words for Identifying Argument Components in Texts
{'venue': 'ArgMining@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,453
Sammanfattning Medan modern standard arabiska (MSA) har många resurser, arabiska Dialects, de främst talade lokala sorter av arabiska, är ganska utarmade i detta avseende. I den här artikeln presenterar vi ADAM (Analyzer för dialektisk arabisk morfologi). ADAM är en fattig mans lösning för att snabbt utveckla morfologiska analysatorer för dialektiska arabiska. ADAM har ungefär hälften av vokabulärfrekvensen hos en toppmodern MSA-analysator och är i sin återkallning jämförbar med en egyptisk dialektisk morfologisk analysator som tog år och dyra resurser att bygga.
Det har fördelen av kort genomförandetid jämfört med analysatorer som tog år och krävde dyra resurser REF.
62,189,658
ADAM: Analyzer for Dialectal Arabic Morphology
{'venue': None, 'journal': 'Journal of King Saud University - Computer and Information Sciences', 'mag_field_of_study': ['Computer Science']}
10,454
R-tree, en av de mest populära åtkomstmetoder för rektanglar, är baserad på heurlstlc optlmlzatlon i området för enclosmg rektangel m varje mner node Genom att köra många experiment m en standardiserad testbädd under mycket varierande data, frågor och operationer, kunde vi utforma R*-tree som mcorporates en kombinerad optlmlzatlon av område, marginal och överlappning av varje enclosmg rektangel m katalogen Med hjälp av vår standardiserade testbädd m en uttömmande prestanda jämförelse, Det visade sig att R*-tree klart överträffar exlstmg R-tree varmnts Guttmans linjära och kvadratiska R-tree och Greenes variant av R-tree Denna superlorlty av R*-tree innehar för olika typer av frågor och operationer, såsom karta overlay. För både rektanglar och multldlmslonal punkter m alla experiment Från en praktisk pomt av visa R*-tree 1s mycket attraktiv på grund av följande mg två skäl 1 Det effrclently stöder pomt och spattal data på samma gång och 2 Its plementatlon kostnad 1s bara något högre än andra R-trees l.Introduktion I detta papper kommer vi att överväga rumsliga åtkomstmetoder (SAMs) som bygger på en campatlon av en komplex rumslig objekt av mmlmum boundmg rektangel med sidorna av rektangeln parallellt med axlarna av datautrymme yIp---+ Detta arbete stöddes genom bidrag nr Kr 670/4-3 från Deutsche Forschun&iememschaft (Tyska forskningssällskapet) och genom Mullstry of Environmental and Urban Planning of Bremen Pemxs~on att kopiera wthout avgift alla eller del av denna mödrar IS beviljades prowd som cops inte görs eller dlstnned för vår dzwct chandiss mest chancynownow,, chancynow och chandiss chandiss, to chancynow to, to chandiss chants chants chants chants chants, to chants chants chants chants chants chants chants chants chants, to, to, to, to, to, to, to kys, to chants, to chants chants kys kys, to kys kys kys, to kys, to kys kys kys kys,.s.s, to, to, to, mhm Puls, mhm Puls, mhm Puls, mm/s, mm/s, müs, mm/s, müs, m. Varför inte optunlze alla dessa kriterier på samma hme? Kan dessa kriterier vara negativa? Endast en teknisk metod kommer att bidra till att hitta den bästa möjliga kammatlon av optimeringskriterier Nödvändig condltlon för en sådan engmeermg strategi 1s avallablhty av en standardiserad testbädd som gör att vi kan köra stora volymer av experiment med mycket varierande data, frågor och operationer Vi har genomfört en sådan standardiserad testbädd och använt den för prestandajämförelser parululärt av pomt tillträdesmetoder [KSS 891 Som ett resultat av vår forskning utformade vi en ny R-tree varmnt, R*-trädet, som överträffar de kända R-tree varianter under alla experiment För många reallstlc profiler av data och operationer gam m prestanda 1s ganska betydande Förutom den vanliga punkt fråga, 322 rektangel mterrektton och rektangel kabinett fråga, har vi analyserat vår nya R*-träd för kartan overlay operation. även kallad spatial lout. vilket 1 är en av de mest rmportant operatroner m geografiska och envrronmentala databassystem Detta papper är organiserat enligt följande I sekter 2, vi tntroduce prrncrples av R-trees rncludrng deras optimizatron kriterier I avsnitt 3 presenterar vi de befintliga R-tree varianter av Guttman och Greene Avsnitt 4 beskriver rn detalj utformningen vår nya R*-tree Resultaten av jämförelser av R*-tree wrth de andra R-tree varmnt rapporteras m avsnitt 5 Avsnitt 6 avslutar papper 2. Alla R-tree 1s en B+-tree liknande struktur som lagrar multrdrmensional rektanglar som komplett ObJects utan klipp dem eller transformera dem till högre drmensronal punkter innan en icke-leaf node contarns poster i formen (cp, Rectangle) där cp 1s adressen till en child node m R-tree och Rectangle 1s den mnumum boundmg rektangel av alla rektanglar som är poster m att child node A blad node contams poster i formen (Old, Rectangle) där Old hänvisar till en skiva m databasen, beskriver en rumslig oblect och Rectangle 1s enclosrn rektangel av denna rumsliga oblect Leaf nos som innehåller poster i form (datuob.tect, Rectangle) är också posrble Denna wrll inte påverkar grundläggande struktur av R-tree i följande mg wrll inte anser sådan prestandan vert isowns lows thannows than om inte är den maximala m-t mmms thank Mmmrzatlon av margm wrll bascally förbättra strukturen Eftersom kvadratiska objekt kan packas lättare, kommer de avgränsande rutor av en nivå att bygga mindre katalog rektanglar m nivån ovanför Således klustermg rektanglar till avgränsande lådor wrth endast lite varians av längderna på kanterna wrll minska arean av dtrectory rektanglar (04) Lagring utlltzatron bör optlmrzed Högre lagring utrhzatron kommer i allmänhet minska frågekostnaden som höjden på trädet wrll hållas låg Uppenbarligen. Fråga typer med stora frågerektanglar påverkas mer smce concentratron av rektanglar m flera noder wrll har en starkare effekt rf antalet hittade nycklar IS hrgh Keepmg området och överlappning av en katalog rektangel liten, kräver mer frihet m antalet rektanglar lagrade m en nod Således MMrmrzmg dessa parametrar kommer att betalas med lägre lagring utrlrzatton. Dessutom, när applymg (01) eller (02) mer frihet rn choosrng formen 1s nödvändig Således rektanglar wrll vara mindre kvadratisk Wrth (01) överlappning mellan katalogrektanglar kan påverkas m en postttve sätt srnce skyddet av datautrymmet 1s reducerad Som för varje geometrirrc optrmrzatron, muumrzmg marginalerna wrll också leda till minskad lagring uttltzatton Men, smce mer kvadratrc katalog rektanglar stöder 323 packning bättre, Det kommer att vara lättare att upprätthålla hög lagring utllzatlon Självklart prestanda för frågor med sufflclently stora frågerektanglar kommer att påverkas mer av lagring utllzatlon än av parametrarna i (Ol)- (03) 3. R-tree Varianter Den R-tree 1s en dynamisk struktur Således alla metoder för optlmlzlng hämtning prestanda måste tillämpas under msertlon av en ny data rektangel Insättningsalgoritmen kallar två fler algoritmer m som den avgörande declslons för bra hämtning prestanda görs Den första är algoritmen VäljSubtree Beglnnmg i roten, fallande till ett blad, det finner på varje nivå den mest lämpliga subtree för att accommodate den nya posten Den andra 1s algoritmen Split It 1s kallas, Om ChooseSubtree end m a node fylld med det maximala antalet poster M Split bör distribuera M+l rektangels m till två noder m det mest lämpliga sättet I följa mg, den VäljSubtree- och Split-algoritmer, föreslås I den tillgängliga R-tree varianterna är det lägsta antalet knutna knutpunkter som är tillgängliga. algoritmen tenderar att föredra den avgränsande rektangeln, skapad från den första tilldelningen av en rektangel till ett frö Smce Det förstorades, Det kommer att vara större än andra Så det behöver mindre område utvidgning att mclude nästa post, Det kommer att förstoras igen. Om en grupp har nått maximalt antal poster M-m+l, är alla återstående poster tilldelade till den andra gruppen utan consldermg geometriska egenskaper Figur 1 (se avsnitt 4 3) ger ett exempel som visar alla 324 dessa problem Resultatet 1s antingen en uppdelning med mycket överlappning (fig lc) eller en uppdelning med ojämna dlstrtbutlon av posterna minskar utlhzatlon (fig lb) Vi testade den kvadratiska uppdelningen av vår R-tree lmplementatlon varierar mmlmum antal poster m = 20%, 30%, 35%,40% och 45% relativt till M och fick den bästa hämtningen prestanda med m satt till 40% I samband med comparmg R-tree med andra strukturer lagring rektanglar, föreslog Greene att följa mg alternativa split-algorithm [Gre 891] För att bestämma den lämpliga vägen för att infoga en ny post använder hon Guttman ursprungliga Choote-algorithm [Dride a wide a worly to the window the chandistribute to the chandors wind > 2 för att hitta den berörda V2 för att hitta de två chandischandischandischandischandischandischandischandischandischannina.,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,, För varje post har överlappningen med alla andra poster av dynag för att beräkna den totala kostnaden för dynam för att minska antalet dygn 4.1 Algoritm Välj Subtree För att lösa problemet med choosmg en lämplig insättningsbana, tidigare R-tree versioner tar endast areaparametern till conslderatlon I våra mvestlgatlons, testade vi parametrarna område, marginal och överlappning m olika kammatloner, där överlappningen av en post 1s definieras enligt följande Let&,,,Ep vara posterna m den aktuella noden Då P överlappning = c alea(E;,Redangle n E,Rtiangle), 1s k p 1/1,1#k Versionen W&I den bästa hämtningen prestanda 1s beskrivs m följamg algoritmen för choosmg den bästa icke-leaf node, alternatlve metoder inte outperform Gutmans ursprungliga algoritm För dynader, mmlmlzmg den överlappande 1 kvadrant 111 Men antalet diskaccesser 325 1s reducerade för den exakta matchfrågan precedmg varje msertlon och 1s reducerade för ChooseSubtree algoritm Itself Testerna visade att ChooseSubtree optlmlzatlon förbättrar hämtningen prestanda particulary m följamg sltuatlon Queries wrth små frågerektanglar på datafiler wrth icke-oformly dlstrlbuted små rektanglar eller punkter I andra fall prestanda av Guttmans algoritm var liknande till denna Således främst en förbättring av robusthet kan anges 4 2 Split av R*-trädet R*-trädet använder följandemg metod för att fmd bra sphts Längs varje axel, posterna först sorteras med det lägre värdet, sedan sorteras efter det övre värdet av sedan rektanglar för varje sort M-2m+2 dlstrlbutloner av M+l entres mto två grupper är determerade. För split-zat (t.ex. split-nows) För split-nows (t.ex. split-nows) Den första gruppen innehåller den första (m-l)+k entrles, den andra gruppen contams de återstående entrles för varje dlstrlbutlon godhetsvärden bestäms Beroende på dessa godhet värden den slutliga dlstrlbutlon av posterna IS fastställt Tre olika godhetsvärden och olika metoder att använda dem i olika kammatloner har testats experimentalt (1) Längs de valda split axIs, är 40% och 45% av det maximala antalet entrles M Som ex-perunents med flera värden av M har visat, m = 40% ger den bästa prestanda Dessutom varierade vi m över livscykeln av en och samma R*-tree m order för att korrelera lagringsalgoritmen 1s har testats med m = 20%, 40% och 45% av det maximala antalet ent-t-t-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n (t-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n-n- och för nästan statiska datafiler packalgoritm [RL 851 1s a more soflstlcated approach För att uppnå dynanuc reorgamzatlons, R*-tree tvingar poster att remserted under msertlon routme 326 följande algoritm 1s baserat på förmågan att tne infoga routme till msert poster på varje nivå i trädet som redan krävs av radering algoritm [Gut 841 Utom för överflödet behandling, Det 1s samma som beskrivs orgmally av Guttman och därför är det 1s endast skissat här Om en ny data rektangel 1s Insatt, varje första överlopp behandling på varje nivå kommer att vara en återinsättning av p poster Detta kan orsaka en uppdelning i noden som orsakade överflödet om alla entrles återinsätts m samma plats annars delas upp i en eller flera andra noder, men m många sltuattons sphttons helt förhindras Parameter p kan varieras mberoende för blad noder och non-flea knutarna som en del av de mest testade omvivel-filerna var. ana tnis 1s mlenueu, DeCdube 1~s enclosmg rektangel reducerades m storlek Således har denna nod lägre probablllty att väljas genom att väljaSubtree agam Summarizmg. Vi kan säga att jag
Vi använder R*-tree REF för våra experiment.
11,567,855
The R*-tree: an efficient and robust access method for points and rectangles
{'venue': "SIGMOD '90", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,456
Abstract-stor skala distribuerade datorsystem innehåller ofta tusentals distribuerade noder (maskiner). Övervakning av villkoren för dessa noder är viktigt för systemhantering, vilket dock kan vara extremt resurskrävande eftersom detta kräver att man samlar in lokala mätningar av varje enskild nod och ständigt skickar dessa mätningar till en central styrenhet. Samtidigt är det ofta användbart att förutse framtida systemförhållanden för olika ändamål såsom resursplanering/tilldelning och anomali upptäckt, men det är oftast alltför resurskrävande att ha en prognosmodell körs för varje nod, som också kan försumma korrelationer i observerade mätvärden över olika noder. I detta dokument föreslår vi en mekanism för insamling och prognostisering av resursutnyttjandet av maskiner i ett distribuerat datorsystem på ett skalbart sätt. Vi presenterar en algoritm som låter varje lokal nod bestämma när den ska överföra sin senaste mätning till den centrala noden, så att överföringsfrekvensen hålls under ett givet begränsningsvärde. Baserat på de mätningar som erhållits från lokala noder, den centrala noden sammanfattar de mottagna data i ett litet antal kluster. Eftersom uppdelningen av kluster kan förändras över tid, presenterar vi också en metod för att fånga utvecklingen av kluster och deras centroider. Som ett effektivt sätt att minska mängden beräkning, tidsserie prognoser modeller tränas på tidsvarierande centroider i varje kluster, att prognostisera framtida resursutnyttjanden av en grupp av lokala noder. Effektiviteten i vårt föreslagna tillvägagångssätt bekräftas av omfattande experiment med hjälp av flera verkliga datauppsättningar.
Ett annat tillvägagångssätt presenteras i REF, som använder ett tröskelvärde baserat villkor för att bestämma dataöverföringsfrekvensen för varje nod i ett distribuerat system.
162,168,467
Online Collection and Forecasting of Resource Utilization in Large-Scale Distributed Systems
{'venue': '2019 IEEE 39th International Conference on Distributed Computing Systems (ICDCS)', 'journal': '2019 IEEE 39th International Conference on Distributed Computing Systems (ICDCS)', 'mag_field_of_study': ['Computer Science']}
10,457
Detta papper presenterar en automatisk lösning för inställning av prestanda, som partitionerar ett program till ett antal stämsektioner och finner den bästa kombinationen av kompilatoralternativ för varje avsnitt. Vår lösning bygger på tidigare arbete med återkopplingsdriven optimering, som finjusterade hela programmet, istället för varje avsnitt. Vår nyckelromanal algoritm partitionerar ett program i lämpliga inställningssektioner. Vi presenterar också arkitekturen i ett system som automatiserar stämprocessen; det innehåller flera förinställning steg som partition och instrument programmet, följt av den faktiska inställning och post-tuning montering av de individuelltoptimerade delarna. Vårt system, kallat PEAK, uppnår snabb inställningshastighet genom att mäta ett litet antal anrop av varje kodsektion, i stället för hela programmet exekveringstid, som i gemensamma lösningar. Jämfört med dessa lösningar minskar PEAK inställningstiden från 2,19 timmar till 5,85 minuter i genomsnitt, samtidigt som man uppnår liknande programprestanda. PEAK förbättrar prestandan hos SPEC CPU2000 FP-riktmärken med 12 % i genomsnitt över GCC O3, den högsta optimeringsnivån, på en Pentium IV-maskin.
Pan och Eigenmann REF söker efter de bästa kompilatorinställningarna för partitioner av ett program som kallas stämsektioner.
12,880,889
Fast, automatic, procedure-level performance tuning
{'venue': "PACT '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,458
Regressionsbaserade metoder fungerar inte lika bra som detektionsbaserade metoder för human pose estimering. Ett centralt problem är att den strukturella informationen i pose inte utnyttjas väl i de tidigare regressionsmetoderna. I detta arbete föreslår vi en strukturmedveten regressionsstrategi. Det antar en reparameterized pose representation med ben i stället för leder. Den utnyttjar den gemensamma anslutningsstruktur för att definiera en kompositionsförlust funktion som kodar de långa intervall interaktioner i pose. Det är enkelt, effektivt och allmänt för både 2D och 3D pose estimation i en enhetlig miljö. Omfattande utvärdering bekräftar effektiviteten i vår strategi. Den gör betydande framsteg när det gäller den senaste tekniken på området för mänskliga 3.6M [20] och är konkurrenskraftig med de senaste resultaten från MPII [3].
Sol och al. REF omparameteriserade pose presentation att använda ben i stället för leder och föreslog en struktur-medveten förlust.
206,771,057
Compositional Human Pose Regression
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
10,459
Vi överväger system för att få sanningsenliga rapporter om en gemensam men dold signal från stora grupper av rationella, egenintresserade agenter. Ett exempel är feedbackmekanismer online, där användarna ger observationer om kvaliteten på en produkt eller tjänst så att andra användare kan ha en korrekt uppfattning om vilken kvalitet de kan förvänta sig. Det är dock dyrt att i) ge sådan feedback, och ii) det finns många skäl att ge felaktig feedback. Båda problemen kan lösas genom belöningssystem som (i) täcker kostnaden för att få och rapportera feedback, och (ii) maximera den förväntade belöningen för en rationell agent som rapporterar sanningsenligt. Vi tar upp utformningen av sådana incitamentskompatibla belöningar för återkoppling som genereras i miljöer med rent negativt urval. Här kan sambandet mellan den sanna kunskapen om en agent och hennes tro om sannolikheten för rapporter från andra agenter utnyttjas för att göra ärlig rapportering en Nash jämvikt. I detta dokument utökar vi befintliga metoder för att utforma incitamentskompatibla belöningar genom att även överväga samverkan. Vi analyserar olika scenarier, där till exempel några eller alla agenter kolluderar. För varje scenario undersöker vi om det finns ett samverkansresistent, incitamentskompatibelt belöningssystem och använder automatiserad mekanismdesign för att specificera en algoritm för att härleda en effektiv belöningsmekanism.
Den modell som beskrivs i REF beaktar ett scenario med rationella köpare som rapporterar om kvaliteten på produkter av olika typer.
1,525,658
Mechanisms for Making Crowds Truthful
{'venue': 'Journal Of Artificial Intelligence Research, Volume 34, pages 209-253, 2009', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,460
Abstrakt. Vi studerar konvergensegenskaperna hos en alternerande proximal minimeringsalgoritm för icke konvexa strukturerade funktioner av typen: L(x, y) = f (x)+Q(x, y)+g(y), där f : R n → R på + ∞} och g : R m → R på + ∞} är riktiga lägre semikontinuerliga funktioner, och Q : R n × R m → R är en jämn C 1-funktion som parar variablerna x och y. Algoritmen kan ses som en proximal legalisering av den vanliga Gauss-Seidel metoden för att minimera L. Vi arbetar i en nonconvex inställning, bara förutsatt att funktionen L uppfyller Kurdyka-Lojasiewicz ojämlikhet. Ett helt avsnitt illustrerar relevansen av ett sådant antagande genom att ge exempel som sträcker sig från semialgebraisk geometri till "metriskt regelbundna" problem. Vårt huvudsakliga resultat kan anges på följande sätt: Om L har egenskapen Kurdyka-Lojasiewicz, så konvergerar varje avgränsad sekvens som genereras av algoritmen till en kritisk punkt av L. Detta resultat kompletteras av studien av konvergensen av algoritmen, som beror på de geometriska egenskaperna hos funktionen L runt dess kritiska punkter. När den är specialiserad på Q(x, y) = x − y 2 och till f, g indikatorfunktioner, är algoritmen en alternerande projektion mehod (en variant av Von Neumanns) som konvergerar för en bred klass av uppsättningar inklusive semialgebraiska och tama uppsättningar, tvärgående släta grenrör eller uppsättningar med "regelbundna" intersektion. För att illustrera våra resultat med konkreta problem tillhandahåller vi en konvergent proximal omviktad l 1-algoritm för kompressiv avkänning och en applikation för att rangordna reduktionsproblem.
En alternerande proximal algoritm övervägdes i REF, och konvergensen visades under Kurdyka-Lojasiewicz antagande om den objektiva funktionen.
17,626,910
Proximal alternating minimization and projection methods for nonconvex problems . An approach based on the Kurdyka-Lojasiewicz inequality
{'venue': 'Math. Oper. Res.', 'journal': 'Math. Oper. Res.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,461
Abstrakt. Cellinjektion är en metod som används för leverans av små provämnen till en biologisk cell och används i stor utsträckning vid läkemedelsutveckling, geninjektion, intracytoplasmisk spermainjektion (ICSI) och in-virto fertilisering (IVF). Robotiska cellinsprutningssystem ger automatisering av processen i motsats till manuella och halvautomatiska cellinsprutningssystem, som kräver expertoperatörer och innebär tidskrävande processer och även har lägre framgångshastigheter. Automatiseringen av cellinjektionsprocessen uppnås genom kontroll av injektionskraften och planering av injektionspipettens rörelse. Traditionellt analyseras dessa system med hjälp av pappers- och pencil-proof och datorsimuleringsmetoder. Den förra är dock benägen för mänsklig terror och den senare baseras på de numeriska algoritmerna, där approximationen av de matematiska uttrycken introducerar felaktigheter i analysen. Formella metoder kan övervinna dessa begränsningar och därmed ge en korrekt analys av cellinsprutningssystemen. Modellkontroll, dvs. en statsbaserad formell metod, har nyligen föreslagits för analys av dessa system. Det innebär dock diskretisering av de differentialekvationer som används för att modellera systemets dynamik och därmed kompromisser om fullständigheten i analysen av dessa säkerhetskritiska system. I det här dokumentet föreslår vi att man ska använda sig av högre ordnings- och teorembevisning, en formalistisk metod som grundar sig på avdragsförmåga, för modellering och analys av robotcellinsprutningssystemens dynamiska beteende. Den föreslagna analysen, baserad på HOL Light theorem bevis, gjorde det möjligt för oss att identifiera vissa avvikelser i simulering och modellkontroll baserad analys av samma robot cell injektionssystem.
Nyligen tillhandahöll Rashid och Hasan REF den formella modelleringen och analysen av de 2-DOF robotiska cellinsprutningssystemen med hjälp av HOL Light.
13,684,497
Formal Analysis of Robotic Cell Injection Systems using Theorem Proving
{'venue': 'LNCS special issue on the theme of CyPhy 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,462
Datorstödd diagnos (CAD) har blivit en av de viktigaste forskningsämnena inom medicinsk avbildning och diagnostisk radiologi. I denna artikel presenteras motivationen och filosofin för tidig utveckling av CAD-system tillsammans med CAD:s nuvarande status och framtida potential i en PACS-miljö. Med CAD använder radiologer datorutgången som ett "andra utlåtande" och fattar de slutliga besluten. CAD är ett koncept som etablerats genom att man tar hänsyn till läkares och datorers roller, medan automatiserad datordiagnos endast är ett koncept baserat på datoralgoritmer. Med CAD behöver datorprestandan inte vara jämförbar med eller bättre än den hos läkare, utan måste komplettera den hos läkare. I själva verket har ett stort antal CAD-system använts för att hjälpa läkare att tidigt upptäcka bröstcancer på mammogram. Ett CAD-system som använder sig av laterala bröstbilder har potential att förbättra den totala prestandan vid upptäckt av lungknutor i kombination med ett annat CAD-schema för PA-bröstbilder. Eftersom vertebrala frakturer kan upptäckas på ett tillförlitligt sätt av datorn på laterala bröströntgen, skulle radiologernas noggrannhet i upptäckten av vertebrala frakturer förbättras genom användning av CAD, och därmed skulle tidig diagnos av osteoporos bli möjlig. I MRA har ett CAD-system utvecklats för att hjälpa radiologer att upptäcka intrakraniella aneurysmer. På på varandra följande benskanningsbilder har ett CAD-schema för detektering av intervallförändringar utvecklats genom användning av tidsmässiga subtraktionsbilder. I framtiden skulle många CAD-system kunna monteras ihop som paket och implementeras som en del av PACS. Till exempel, paketet för bröst CAD kan omfatta datoriserad upptäckt av lungknutor, interstitiell opacitet, kardiomegalt, kotfrakturer, och intervallförändringar i bröstradiografer samt datoriserad klassificering av benigna och maligna knutor och differentialdiagnos av interstitiella lungsjukdomar. För att hjälpa till med differentialdiagnosen skulle det vara möjligt att söka efter och hämta bilder (eller lesioner) med känd patologi, vilket skulle vara mycket likt ett nytt okänt fall, från PACS när en tillförlitlig och användbar metod har utvecklats för att kvantifiera likheten mellan ett par bilder för visuell jämförelse av radiologer.
Datorstödd diagnos har blivit en av de största forskningsämnet inom medicinsk avbildning och diagnos REF.
17,233,601
Computer-aided diagnosis in medical imaging: Historical review, current status and future potential
{'venue': 'Computerized Medical Imaging and Graphics', 'journal': 'Computerized Medical Imaging and Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
10,463
The Linked Data Benchmark Council (LDBC) är ett EU-projekt som syftar till att utveckla riktmärken för industriell hållfasthet för datahanteringssystem för grafer och roterugnar. Det inkluderar skapandet av en ideell LDBC organisation, där näringslivets aktörer och den akademiska världen samlas för att hantera utvecklingen av riktmärken samt revision och publicering av officiella resultat. Vi presenterar en översikt över projektet inklusive dess mål och organisation, och beskriver dess process- och designmetodik för benchmarkingutveckling. Vi introducerar så kallad "choke-point" baserad benchmarkingutveckling genom vilken experter identifierar viktiga tekniska utmaningar, och introducerar dem i referensarbetsbördan. Slutligen presenterar vi statusen för två riktmärken som för närvarande håller på att utvecklas, den ena riktar sig mot grafdatahanteringssystem med hjälp av ett socialt nätverksdatafall, och den andra riktar sig mot RDF-system med hjälp av ett datapubliceringsfall.
Linked Data Benchmark Council (LDBC) REF utvecklade riktmärket för sociala nätverk (SNB) och riktmärket för semantisk publicering (SPB).
8,937,205
The linked data benchmark council: a graph and RDF industry benchmarking effort
{'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,464
När AI fortsätter att avancera, mänskliga-AI team är oundvikliga. Framsteg i AI mäts dock rutinmässigt i isolering, utan en människa i slingan. Det är viktigt att jämföra framsteg i AI, inte bara i isolering, men också i termer av hur det översätts till att hjälpa människor att utföra vissa uppgifter, dvs. prestanda mänskliga-AI team. I detta arbete designar vi ett kooperativt spel – GuessWhatto measurement human-AI team performance in the specific context of the AI as a visual conversational agent. Gissa Vilket innebär levande interaktion mellan människan och AI. AI, som vi kallar ALICE, är en bild som människan inte kan se. Efter en kort beskrivning av bilden, de mänskliga frågorna ALTERNAR om denna hemliga bild för att identifiera den från en fast pool av bilder. Vi mäter prestanda hos personal-ALICE laget med antalet gissningar det tar människan att korrekt identifiera den hemliga bilden efter ett fast antal dialogrundor med AL-ICE. Vi jämför prestanda av human-ALICE team för två versioner av ALICE. Våra mänskliga studier tyder på en kontraintuitiv trend - att medan AI-litteratur visar att den ena versionen överträffar den andra när den kombineras med en AI-utfrågare bot, finner vi att denna förbättring i AI-AI prestanda inte översätter till förbättrad människa-AI prestanda. Detta tyder på en obalans mellan benchmarking av AI isolerat och inom ramen för human-AI-team.
REF använde detta spel för att utvärdera visuell konversation agent prestanda.
3,617,644
Evaluating Visual Conversational Agents via Cooperative Human-AI Games
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,465
Det har funnits ett stort intresse för att designa neurala nätverksmodeller för att uppskatta en distribution från en uppsättning exempel. Vi introducerar en enkel modifiering för autoencoder neurala nätverk som ger kraftfulla generativa modeller. Vår metod döljer autoenkoderns parametrar för att respektera autoregressiva begränsningar: varje ingång rekonstrueras endast från tidigare ingångar i en given beställning. Konstruerad på detta sätt, autoencoder utgångar kan tolkas som en uppsättning villkorliga sannolikheter, och deras produkt, den fulla gemensamma sannolikheten. Vi kan också träna ett enda nätverk som kan bryta den gemensamma sannolikheten i flera olika beställningar. Vårt enkla ramverk kan tillämpas på flera arkitekturer, inklusive djupa sådana. Vektoriserade implementationer, såsom på GPU:er, är enkla och snabba. Experiment visar att detta tillvägagångssätt är konkurrenskraftigt med de senaste spridningsskattningarna. Vid testtillfället är metoden betydligt snabbare och skalar bättre än andra autoregressiva estimatorer.
REF modifiera en autoencoder neurala nätverk för att uppskatta villkorliga sannolikheter med autoregressiva begränsningar.
1,399,080
MADE: Masked Autoencoder for Distribution Estimation
{'venue': 'Proceedings of the 32nd International Conference on Machine Learning, JMLR W&CP 37:881-889, 2015', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,466
I videotextningsuppgiften har den bästa praxisen uppnåtts genom uppmärksamhetsbaserade modeller som förknippar framträdande visuella komponenter med meningar i videon. Befintliga studier följer dock ett gemensamt förfarande som inkluderar en frame-level utseende modellering och rörelse modellering på lika intervall ramprovtagning, vilket kan ge upphov till överflödig visuell information, känslighet för innehållsbuller och onödiga beräkningskostnader. Vi föreslår en plug-and-play PickNet att utföra informativ ram plockning i videotextning. Baserat på en standard Encoder-Decoder ram, utvecklar vi en förstärkning-lärande-baserad procedur för att utbilda nätverket sekventiellt, där belöningen för varje ram plocka åtgärd är utformad genom att maximera visuell mångfald och minimera text diskrepans. Om kandidaten belönas kommer den att väljas ut och motsvarande latent representation av Encoder-Decoder kommer att uppdateras för framtida försök. Detta förfarande pågår till slutet av videosekvensen. Följaktligen kan en kompakt ram delmängd väljas för att representera den visuella informationen och utföra videotextning utan prestandanedbrytning. Experimentella resultat visar att vår modell kan använda 6 och 8 ramar för att uppnå konkurrenskraftiga resultat över populära riktmärken.
Mot effektivitet och en mer kompakt representation av videor, Chen et al. I REF föreslogs en metod för att stärka inlärningen för att välja några nyckelramar för att generera videotext.
3,667,774
Less Is More: Picking Informative Frames for Video Captioning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,467
Inom området fjärrteknik har GRR Response Rigg använts för att få tillgång till och lagra data från tusentals företagsmaskiner. Hantering av ett stort antal maskiner kräver effektiva och skalbara lagringsmekanismer som möjliggör samtidig datadrift och effektiv dataåtkomst, oberoende av storleken på de lagrade uppgifterna och antalet maskiner i nätverket. Vi studerade de tillgängliga GRR-lagringsmekanismerna och fann att de saknade både hastighet och skalbarhet. I detta dokument föreslår vi en ny distribuerad datalager som partitionerar data till databasfiler som kan nås oberoende så att distribuerad kriminalteknisk analys kan göras på ett skalbart sätt. Vi visar också hur du använder NSRL-programvarans referensdatabas i vår skalbara datalager för att undvika att slösa resurser när du samlar in ofarliga filer från företagsmaskiner.
Nyligen, Cruz et al. REF föreslår en ny distribuerad datalager för fjärrtekniker som partitionerar data till databasfiler som kan nås oberoende så att distribuerad kriminalteknisk analys kan göras.
73,900
A scalable file based data store for forensic analysis
{'venue': 'Digital Investigation', 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']}
10,468
Övervakade djupt lärande metoder har visat lovande resultat för uppgiften att monokulära djup uppskattning; men förvärva mark sanning är kostsamt, och benägna att buller samt felaktigheter. Medan syntetiska dataset har använts för att kringgå ovan problem, de resulterande modellerna inte generalisera väl till naturliga scener på grund av den inneboende domänskifte. Den senaste tidens kontradiktoriska strategier för domänanpassning har fungerat bra för att minska skillnaderna mellan käll- och måldomäner. Men dessa metoder är oftast begränsade till en klassificeringsuppsättning och skalas inte väl för fullt-konvolutionella arkitekturer. I detta arbete föreslår vi AdaDepth - en oövervakad strategi för domänanpassning för den pixelvisa regressionsuppgiften monokulära djupuppskattning. Det föreslagna tillvägagångssättet saknar ovan nämnda begränsningar genom a) kontradiktoriskt lärande och b) uttryckligt införande av innehållskonsistens i den anpassade målrepresentationen. Vår oövervakade strategi presterar konkurrenskraftigt med andra etablerade metoder för djupuppskattningsuppgifter och uppnår toppmoderna resultat i en halvövervakad miljö.
AdaDepth (Anpassning för djupuppskattning) använder en rest encoder-dekoder arkitektur med adversarial set upp för att utföra en pixel-wise regression uppgift monocular djupuppskattning REF.
3,690,396
AdaDepth: Unsupervised Content Congruent Adaptation for Depth Estimation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
10,470
Klustrade grafer är grafer med rekursiva klusterstrukturer över hörnen. Denna typ av struktur förekommer i många system. Exempel på detta är CASE-verktyg, managementinformationssystem, VLSI-designverktyg och omvända konstruktionssystem. Befintliga layoutalgoritmer representerar klusterstrukturen som rekursivt inhägnade områden i planet. I takt med att strukturen blir mer och mer komplex tenderar dock tvådimensionella planrepresentationer att vara bristfälliga. I detta papper, rstly, beskriver vi några tvådimensionella planritningsalgoritmer för klustererade grafer; sedan visar vi hur man utökar tvådimensionella planritningar till tredimensionella flernivåritningar. Vi överväger två konventioner: raka konvexa teckningar och ortogonala rektangulära teckningar; och vi visar några exempel.
Några tvådimensionella planritningsalgoritmer för klustrade grafer; utöka tvådimensionella planritningar till tredimensionella flernivåritningar genom att överväga konvexa ritningar och ortogonala rektangulära ritningar presenteras i REF.
944,910
Multilevel Visualization of Clustered Graphs
{'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']}
10,471
Djupa neurala nätverk har visat sig vara mycket kraftfulla modelleringsverktyg för många övervakade lärande uppgifter som involverar komplexa inmatningsmönster. Men de kan också lätt överanstränga sig för att träna fördomar och märka ljud. Förutom olika regularizers, exempel revikting algoritmer är populära lösningar på dessa problem, men de kräver noggrann inställning av ytterligare hyperparametrar, såsom till exempel gruvscheman och regularization hyperparameters. I motsats till tidigare omviktningsmetoder, som vanligtvis består av funktioner av kostnadsvärdet för varje exempel, föreslår vi i detta arbete en ny meta-lärande algoritm som lär sig att tilldela vikter till träningsexempel baserat på deras lutning riktningar. För att bestämma exempelvikterna utför vår metod ett steg i nedstigningen av metagradienten på de nuvarande mini-batch-exemplarvikterna (som initieras från noll) för att minimera förlusten på en ren, objektiv valideringsuppsättning. Vår föreslagna metod kan enkelt implementeras på någon typ av djup nätverk, inte kräver någon ytterligare hyperparameter tuning, och uppnår imponerande prestanda på klass obalans och skadade etikett problem där endast en liten mängd ren valideringsdata finns tillgänglig.
Omviktningsmetoden REF bestämmer exempelvikterna genom att minimera förlusten på en ren, objektiv valideringsuppsättning.
4,321,928
Learning to Reweight Examples for Robust Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
10,472
Abstrakt. Vi presenterar ett processhanteringssystem för parallella program som de som skrivs med hjälp av MPI. Ett primärt mål för systemet, som vi kallar MPD (för multipurpose daemon), är att vara skalbar. Med detta menar vi att det går snabbt att starta interaktiva parallella jobb med tusen processer, att signaler snabbt kan levereras till processer och att stdin, stdout och stderr hanteras intuitivt. Vårt primära mål är parallella maskiner som består av kluster av små och medelstora företag, men systemet är också användbart i tätare integrerade miljöer. Vi beskriver hur MPD möjliggör mycket snabbare start och bättre körtid hantering av MPICH jobb. Vi visar hur nära kontroll av stdio kan stödja det enkla genomförandet av ett antal praktiska systemverktyg, även en parallell avlusare. MPD implementeras och distribueras fritt med MPICH.
Butler m.fl. REF presenterade ett skalbart processhanteringssystem kallat MPD (för multi-purpose Daemon) för parallella program som de som skrevs med hjälp av MPI.
9,482,604
A Scalable Process-Management Environment for Parallel Programs
{'venue': 'In Euro PVM/MPI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,473
Undervattenssensornätverk (UWSN) har blivit ett hett forskningsämne på grund av sina olika akvatiska tillämpningar. Eftersom undervattenssensorn noderna drivs av inbyggda batterier som är svåra att ersätta, är en förlängning av nätverkets livslängd ett mycket brådskande behov. På grund av den låga och variabla överföringshastigheten hos ljud är konstruktionen av tillförlitliga routingalgoritmer för UWSNs utmanande. I detta dokument föreslår vi en Q-learning baserad delay-aware routing (QDAR) algoritm för att förlänga livslängden för undervattenssensornätverk. I QDAR är en datainsamlingsfas utformad för att anpassa sig till den dynamiska miljön. Med Q-learning-tekniken kan QDAR bestämma ett globalt optimalt nästa hopp snarare än ett girigt. Vi definierar en verksamhets-nyttofunktion där resterande energi och spridningsfördröjning både beaktas för lämpliga routing beslut. QDAR-algoritmen kan således förlänga nätverkets livslängd genom att jämnt fördela restenergin och ge lägre end-to-end fördröjning. Simuleringsresultaten visar att vårt protokoll kan ge nästan samma nätverkslivslängd, och kan minska den end-to-end fördröjningen med 20-25% jämfört med ett klassiskt livstidsutökat routingprotokoll (QELAR).
I REF använder algoritmen Q-learning-based delay-aware routing (QDAR) en Q-learning algoritm för att förlänga nätverkets livslängd för UWSNs.
3,500,449
A Q-Learning-Based Delay-Aware Routing Algorithm to Extend the Lifetime of Underwater Sensor Networks
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
10,474
Standardspråket för att beskriva algoritmernas aymptotiska beteende är teoretisk beräkningskomplexitet. Vi föreslår en metod för att beskriva programmens asymptotiska beteende i praktiken genom att mäta deras empiriska beräkningskomplexitet. Vår metod innebär att köra ett program om arbetsbelastningar som spänner över flera storleksordningar, mäta deras prestanda, och anpassa dessa observationer till en modell som förutsäger prestanda som en funktion av arbetsbelastning storlek. Jämföra dessa modeller med programmerarens förväntningar eller teoretiska asymptotiska gränser kan avslöja prestanda buggar eller bekräfta att ett programs prestanda skalor som förväntat. Gruppering och ranking program platser baserat på dessa modeller fokuserar uppmärksamheten på skalbarhet-kritisk kod. Vi beskriver vårt verktyg, Trend Profiler (trend-prof), för att konstruera modeller av empirisk beräknings komplexitet som förutsäger hur många gånger varje grundläggande block i ett program körs som en linjär (y = a + bx) eller en powerlaw (y = ax b ) funktion av användarspecificerade funktioner i programmets arbetsbelastning. Vi körde trendproffs på flera stora program och rapportera fall där ett program skalas som förväntat, slå dess värsta fall teoretiska komplexitet bunden, eller hade en prestanda bugg.
Trendprof Ref modeller asymptotic computational komplexitet genom att mäta empirisk computational komplexitet.
11,683,531
Measuring empirical computational complexity
{'venue': "ESEC-FSE '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,475
Abstract-Femtocells är små lågdrivna basstationer ger tillräcklig ökning av systemkapacitet tillsammans med bättre inomhustäckning. Den täta utbyggnaden av femtoceller står dock inför den största utmaningen med co-kanalinterferens med makrocellsanvändare. I detta dokument behandlas detta störningsproblem genom att föreslå en ny downlink-kraftstyrningsalgoritm för femtoceller. Den föreslagna algoritmen minskar gradvis nedlänköverföringskraften hos femtoceller när de informeras om en närliggande makrocellsanvändare under störning. Denna information ges till femtocellerna av makrocellens basstation genom en enkelriktad nedlänkskanal. Simuleringsresultat visar att algoritmen får makrocellen att rymma ett stort antal femtoceller inom sitt område, samtidigt som den skyddar makrocellsanvändarna från skadlig störning.
I REF minskar den föreslagna algoritmen gradvis nedlänkens överföringseffekt, när de informeras om en makrocellsanvändare som får störningar från sin överföringskraft.
1,416,790
A downlink power control scheme for interference avoidance in femtocells
{'venue': '2011 7th International Wireless Communications and Mobile Computing Conference', 'journal': '2011 7th International Wireless Communications and Mobile Computing Conference', 'mag_field_of_study': ['Computer Science']}
10,476
I sensation as a service paradigm, Internet of Things (IoT) Middleware plattformar tillåter data konsumenter att hämta de data de vill utan att känna till de underliggande tekniska detaljerna i IoT resurser (dvs.. sensorer och databehandlingskomponenter). Konfigurering av en IoT middleware-plattform och insamling av data är dock en stor utmaning för datakonsumenterna eftersom det kräver både teknisk kunskap och domänexpertis. I detta dokument föreslår vi en kunskapsdriven strategi som kallas Context Aware Sensor Configuration Model (CASCOM) för att förenkla processen för att konfigurera IoT middleware-plattformar, så att datakonsumenterna, särskilt icke-teknisk personal, enkelt kan hämta de data de behöver. I den här artikeln visar vi hur IoT-resurser kan beskrivas med semantik i sådan bort att de senare kan användas för att komponera tjänstearbetsflöden. Sådan automatiserad semantisk-kunskapsbaserad IoT resurssammansättning för fram den aktuella forskningen. Vi demonstrerar genomförbarheten och användbarheten av vår strategi genom en prototyp implementation baserad på en IoT middleware som kallas Global Sensor Networks (GSN), även om vår modell kan generaliseras till någon annan middleware plattform.
Perera och Vasilakos REF föreslår ett kunskapsdrivet tillvägagångssätt som kallas Context Aware Sensor 44200 VolumeME 7, 2019 Configuration Model för att förenkla processen för att konfigurera IoT middleware plattformar, så att datakonsumenterna enkelt kan hämta de data de behöver.
16,398,953
A Knowledge-Based Resource Discovery for Internet of Things
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
10,477
Diskriminativa inlärningsmetoder används i stor utsträckning i behandling av naturligt språk. Dessa metoder fungerar bäst när deras tränings- och testdata hämtas från samma distribution. För många NLP-uppgifter konfronteras vi dock med nya områden där märkta data är knappa eller obefintliga. I sådana fall försöker vi anpassa befintliga modeller från en resursrik källkodsdomän till en resursfattig måldomän. Vi introducerar strukturell korrespondens inlärning för att automatiskt framkalla korrespondens mellan funktioner från olika domäner. Vi testar vår teknik på en del av talmärkning och visar prestandavinster för varierande mängder käll- och målträningsdata, samt förbättringar i måldomäntolkning med hjälp av vår förbättrade tagger.
REF framkallade en överensstämmelse mellan funktioner från en källa och måldomän baserat på strukturell korrespondens inlärning över omärkta måldomändata.
15,978,939
Domain Adaptation With Structural Correspondence Learning
{'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,478
Abstrakt. Vi studerar det asymptotiska beteendet hos a) informationsläckage och (b) motståndarens felsannolikhet i information gömmer system som modelleras som bullriga kanaler. Specifikt, vi antar att angriparen kan göra en enda gissning efter att ha observerat n oberoende utföranden av systemet, under vilken den hemliga informationen hålls fast. Vi visar att det asymptotiska beteendet hos mängder (a) och (b) kan bestämmas på ett enkelt sätt från kanalmatrisen. Dessutom visar enkla och snäva gränser på dem som funktioner av n att konvergensen är exponentiellt. Vi diskuterar också genomförbara metoder för att utvärdera konvergensgraden. Våra resultat täcker både Bayesian fallet, där en tidigare sannolikhetsfördelning på hemligheter antas vara känd för angriparen, och maximal-likelihood fallet, där angriparen inte vet en sådan fördelning. I Bayesian-fallet identifierar vi distributionerna som maximerar läckaget. Vi anser att både min-entropi inställning studeras av Smith och additiv form nyligen föreslagits av Braun et al., och visa de två formerna stämmer asymptotiskt. Därefter utvidgar vi dessa resultat till ett mer sofistikerat tjuvlyssnande scenario, där angriparen kan utföra en (buller) observation vid varje tillstånd av beräkningen och systemen modelleras som dolda Markov modeller.
I REF, samma författare tillsammans med Paolini studera asymptotiken av läckage som härrör från n oberoende användning av en enda kanal för stora n. Detta är i viss mening dubbelt till den situation vi har övervägt, av asymptotics av en enda, lång genomförande av ett statligt system.
14,112,467
Asymptotic information leakage under one-try attacks
{'venue': 'FoSSaCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,479
Abstrakt. GMRES-metoden för att lösa icke-symmetriska linjära ekvationer används i allmänhet med omstart för att minska lagrings- och ortogonaliseringskostnader. Att starta om saktar ner konvergensen. Det är dock möjligt att spara en del viktig information vid tidpunkten för omstarten. Det föreslås att ungefärliga eigenvektorer som motsvarar några få av de minsta eigenvärdena bildas och läggs till underrymden för GMRES. Konvergensen kan vara mycket snabbare, och den minsta restegendomen behålls.
Vårt genomförande av GMRES tillför ungefärliga eigenvekatorer motsvarande några få minsta eigenvärden av matrisen till subrymden för att minska effekten av omstart på konvergens REF.
16,615,228
A restarted GMRES method augmented with eigenvectors
{'venue': 'SIAM J. Matrix Anal. Appl', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,480
I denna uppsats presenteras en fallbaserad heuristisk urvalsmetod för automatiserad universitetsutbildning och tentamenstidtagning. Den metod som beskrivs i detta dokument motiveras av målet att utveckla tidtagningssystem som i grunden är mer allmänna än den nuvarande tekniken. Heuristik som fungerade bra i tidigare liknande situationer memoreras i en fallbas och hämtas för att lösa det nya problemet i hand. Tekniker för kunskapsupptäckt används i två olika scenarier. För det första modellerar vi problemet och problemlösningssituationerna tillsammans med specifika heuristiker för dessa problem. För det andra förfinar vi fallbasen och kasserar fall som visar sig vara oanvändbara när det gäller att lösa nya problem. Experimentella resultat presenteras och analyseras. Det visas att fallbaserade resonemang kan fungera effektivt som ett intelligent tillvägagångssätt för att lära sig vilka heuristiker som fungerar bra i särskilda situationer. Vi avslutar med att beskriva och diskutera potentiella forskningsfrågor inom detta område av kunskapsupptäckt för olika svåra tidtagningsproblem.
Case Based Reasoning användes i REF för att konstruera tidtagningslösningar.
1,713,692
Case-based heuristic selection for timetabling problems
{'venue': 'J. Scheduling', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,481
ABSTRACT Attackers använder vanligtvis en kommando- och kontrollserver (C2) för att manipulera kommunikationen. För att utföra en attack använder hotaktörer ofta en domängenereringsalgoritm (DGA), som kan tillåta malware att kommunicera med C2 genom att generera en mängd olika nätverksplatser. Traditionella malware kontrollmetoder, såsom svartlistning, är otillräckliga för att hantera DGA hot. I detta dokument föreslår vi en ram för maskininlärning för att identifiera och upptäcka DGA-områden för att minska hotet. Vi samlar in hotdata i realtid från den verkliga trafiken under en ettårsperiod. Vi föreslår också en modell för djupt lärande för att klassificera ett stort antal DGA-områden. Det föreslagna ramverket för maskininlärning består av en tvånivåmodell och en förutsägelsemodell. I tvånivåmodellen klassificerar vi först DGA-domänerna bortsett från normala domäner och använder sedan klustermetoden för att identifiera de algoritmer som genererar dessa DGA-domäner. I prediktionsmodellen konstrueras en tidsseriemodell för att förutsäga inkommande domänfunktioner baserat på den dolda Markov-modellen (HMM). Dessutom bygger vi en djup neural nätverk (DNN) modell för att förbättra den föreslagna maskininlärning ramar genom att hantera den enorma dataset vi gradvis samlas in. Våra omfattande experimentella resultat visar exaktheten i det föreslagna ramverket och DNN-modellen. För att vara exakt uppnår vi en noggrannhet på 95,89% för klassificeringen inom ramen och 97,79% i DNN-modellen, 92,45% för klusterbildning på andra nivån och 95,21% för HMM-prognosen inom ramen. INDEX TERMS Malware, domängenerering algoritm, maskininlärning, säkerhet, nätverk.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF upprättade en ram för maskininlärning för att hantera DGA (domain generation algoritm) malware hot.
85,500,423
A Machine Learning Framework for Domain Generation Algorithm-Based Malware Detection
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
10,482
Vi föreslår en allmän teknik för dubbelmontering för att analysera online schemaläggning algoritmer i orelaterade maskiner inställning där den objektiva funktionen innebär viktad flödestid, och vi tillåter maskinerna i on-line algoritm att ha (1 + ε) extra hastighet än offline optimal (den så kallade hastighetsförstärkning modell). Vanligtvis analyseras sådana algoritmer med hjälp av icke-triviala potentiella funktioner som ger liten insikt i den säkra tekniken. Vi föreslår att man ofta kan analysera sådana algoritmer genom att titta på den dubbla (eller Lagrangian dual) av det linjära (eller konvexa) programmet för motsvarande schemaläggning problem, och hitta en genomförbar dubbel lösning som on-line algoritmen fortsätter. Som representativa fall får vi följande resultat: • För problemet med att minimera viktad flödestid, ger vi en O 1 ε -konkurrenskraftig girig algoritm. Detta är en förbättring med en faktor på 1 ε på konkurrensförhållandet mellan den giriga algoritmen i Chadha-Garg-KumarMuralidhara. • När det gäller problemet med att minimera viktad k-norm av flödestid, visar vi att en girig algoritm ger ett - konkurrensförhållande. Detta förbättrar marginellt resultatet av Im och Moseley. • För problemet med att minimera viktad flödestid plus energi, och när energifunktionen f (s) är lika med s γ, γ > 1, visar vi att en naturlig girig algoritm är O (γ 2 )-konkurrenskraft. Före vårt arbete var ett sådant resultat endast känt för de relaterade maskinerna inställning (GuptaKrishnaswamy-Pruhs).
Återigen, alltid baserad på linjär programmering och dubbel-montering, Anand et al. REF visade sig vara en O(α 2 )-kompetitiv algoritm för icke-närstående maskiner.
2,158,571
Resource Augmentation for Weighted Flow-time explained by Dual Fitting
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,483
Abstrakt. I detta dokument undersöks möjligheten att utnyttja text på det globala nätet för att berika begreppen i befintliga ontologier. För det första beskrivs en metod för att hämta dokument från WWW relaterade till ett koncept. Dessa dokumentsamlingar används 1) för att konstruera ämnessignaturer (listor av topikalt relaterade ord) för varje koncept i WordNet, och 2) för att bygga hierarkiska kluster av begreppen (ordets sinnen) som lexikaliserar ett givet ord. Det övergripande målet är att övervinna två brister i WordNet: bristen på aktuella länkar mellan begrepp, och spridningen av sinnen. Ämnessignaturer valideras på ett ord sense disambigation uppgift med goda resultat, som förbättras när de hierarkiska kluster används.
Till exempel presenteras i REF en metod för att berika begreppen i WordNet.
59,687
Enriching very large ontologies using the WWW
{'venue': 'Procedings of the ECAI 2000 Workshop on Ontology Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']}
10,484
Statistiskt lärande bygger på data från en distribution, och vi brukar inte bry oss om vad som faktiskt genererade det i första hand. När det gäller kausalmodellering framkallas varje fördelnings struktur av fysiska mekanismer som ger upphov till beroenden mellan observerbara. Mekanismer kan dock vara meningsfulla autonoma moduler av generativa modeller som är meningsfulla bortom en särskild förbunden datadistribution, lånar sig själva för att överföra mellan problem. Vi utvecklar en algoritm för att återställa en uppsättning oberoende (omvänt) mekanismer från en uppsättning omvandlade datapunkter. Metoden är oövervakad och bygger på en uppsättning experter som konkurrerar om data som genereras av mekanismerna, kör specialisering. Vi analyserar den föreslagna metoden i en serie experiment på bilddata. Varje expert lär sig att kartlägga en delmängd av de omvandlade data tillbaka till en referensfördelning. De inlärda mekanismerna generaliserar till nya domäner. Vi diskuterar implikationer för överföring av lärande och kopplingar till de senaste trenderna inom generativ modellering.
I REF föreslås en algoritm för att återställa en uppsättning oberoende orsakssambandsmekanismer genom att skapa konkurrens mellan mekanismer och därmed driva på specialiseringen.
3,333,755
Learning Independent Causal Mechanisms
{'venue': 'Proceedings of the 35th International Conference on Machine Learning, PMLR 80:4036-4044, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
10,485