src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Agil utveckling är en avgörande fråga inom programvaruteknik eftersom ett av målen för en projektledare är att öka hastigheten och flexibiliteten i utvecklingen av nya kommersiella produkter. I detta avseende måste projektledare hitta den bästa resurskonfigurationen för vart och ett av de arbetspaket som krävs för hantering av programvaruutvecklingsprocesser för att hålla teamet motiverat och engagerat i projektet och för att förbättra produktiviteten och kvaliteten. I detta dokument presenteras ReSySTER, ett hybridrekommendatorsystem baserat på fuzzy logik, grov-et teori och semantisk teknik, som syftar till att hjälpa projektledare att hantera mjukvaruutvecklingsprojekt. Det föreslagna systemet är ett kraftfullt verktyg för projektledare som stödjer utvecklingsprocessen i Scrum-miljöer och hjälper till att bilda det lämpligaste teamet för olika arbetspaket. Systemet har utvärderats i ett verkligt utvecklingsscenario där Scrum-ramen ger lovande resultat. | Det föreslagna systemet har utvärderats på en verklig data från programvaruutvecklingscykeln REF. | 2,675,373 | ReSySTER: A hybrid recommender system for Scrum team roles based on fuzzy and rough sets | {'venue': 'Int. J. Appl. Math. Comput. Sci.', 'journal': 'Int. J. Appl. Math. Comput. Sci.', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 6,112 |
Vi presenterar en strategi för programreparation och dess tillämpning på program med rekursiva funktioner över obundna datatyper. Vårt tillvägagångssätt formulerar programreparation inom ramen för deduktiv syntes som använder befintlig programstruktur som en antydan till vägledning syntes. Vi inför en ny specifikationskonstruktion för symboliska tester. Vi förlitar oss på sådana användardefinierade tester samt automatiskt genererade tester för att lokalisera felet och påskynda syntesen. Vår implementation kan eliminera fel inom några sekunder från en mängd olika funktionella program, inklusive symbolisk beräkningskod och implementationer av funktionella datastrukturer. De resulterande programmen verifieras formellt av Leonsystemet. | Tekniken genom REF kan reparera logiskt fel av funktionella program men det kräver användartillhandahållna specifikationer. | 2,623,990 | Deductive Program Repair | {'venue': 'CAV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,113 |
SYFTE Förhållandet mellan kontinuitet i vården och patientens förtroende för primärvården är inte helt klarlagt. Vi rapporterar en empirisk undersökning, informerad av spelteorin, av patienternas räkenskaper över deras förtroende för allmänpraktiserande läkare (GP). Vi genomförde en analys baserad på den konstanta jämförande metoden av 20 semistrukturerade intervjuer med patienter om förtroende för GPs i Storbritannien. Människor använder institutionellt förtroende, som härrör från förväntningar på medicin som institution och läkare som yrkesutövare, som utgångspunkt för sina transaktioner med obekanta läkare. Denna förväntan kan vara tillräcklig för att ge patienterna det minimum av vad de vill ha av läkare och är ofta tillräcklig för singleepisode möten, där patienterna har specifi c mål. Upprepade interaktioner med samma läkare kan göra det möjligt för patienter att utveckla säkrare förväntningar, baserat på en historia av andra interaktioner och förutseende av framtida interaktioner. Ett säkert förtroende kan utvecklas med tiden, särskilt om patienterna är övertygade om att läkaren har sina intressen i hjärtat. SLUTSATSER Detta arbete identifi es dynamik inneboende i upprepade interaktioner som gör det möjligt att säkra förtroendet att utvecklas. Dessa åtgärder har viktiga konsekvenser för utformningen av tjänster, som i Förenade kungariket och på andra håll i allt högre grad är inriktade på att förbättra tillgången snarare än kontinuiteten. De föreslår att patienter inte ser GPs som utbytbara och att övergången till att organisera tjänster runt enstaka möten kan störa utvecklingen av säker tillit. | Upprepade interaktioner med samma läkare gör det möjligt för patienter att bygga säkrare förväntningar baserat på en historia av andra interaktioner och förutseende av framtida interaktioner REF. | 481,647 | Continuity and Trust in Primary Care: A Qualitative Study Informed by Game Theory | {'venue': 'Annals of family medicine', 'journal': 'Annals of family medicine', 'mag_field_of_study': ['Medicine']} | 6,114 |
Abstract-Internet routrar kräver buffertar för att hålla paket under tider av överbelastning. Buffrarna måste vara snabba, och helst bör de vara tillräckligt små för att kunna använda snabbminnesteknik som SRAM eller alloptisk buffring. Tyvärr, en allmänt använd regel-of-tumb säger att vi behöver en bandbreddsfördröjning produkt av buffring vid varje router för att inte förlora länkutnyttjande. Detta kan vara oöverkomligt stort. I en tidning nyligen, Appenzeller et al. utmanade denna regel-of-tumb och visade att för ett stamnät, buffertstorleken kan divideras med ε N utan att offra genomströmning, där N är antalet flöden som delar flaskhalsen. I detta dokument undersöker vi hur buffertar i ryggraden kan minskas betydligt ännu mer, till så lite som några dussin paket, om vi är villiga att offra en liten mängd länkkapacitet. Vi hävdar att om TCP-källorna inte är alltför spruckna räcker det med färre än tjugo paketbuffertar för hög genomströmning. Särskilt hävdar vi att O(log W ) buffertar är tillräckliga, där W är fönsterstorleken på varje flöde. Vi stödjer vårt påstående med analys och en mängd olika simuleringar. Förändringen vi måste göra till TCP är minimal varje avsändare behöver bara stegra paket injektioner från dess fönster. Dessutom finns det vissa bevis för att sådana små buffertar är tillräckliga även om vi inte ändrar TCP-källorna så länge accessnätet är mycket långsammare än ryggraden, vilket är sant idag och sannolikt kommer att förbli sant i framtiden. Vi drar slutsatsen att buffertar kan göras små nog för alloptiska routrar med små integrerade optiska buffertar. Fram till helt nyligen trodde man allmänt att internetroutrar behövde stora buffertar. Kommersiella routrar idag En tidigare, kortare, ofullständig, inbjuden och ogranskad version av detta dokument publicerades i ACM CCR, juli 2005. Redaktören uppmuntrade oss att skicka in till Infocom så att en komplett, granskad version skulle vara tillgänglig för samhället. Detta arbete fick stöd under DARPA/MTO DOD-N award no. W911NF-04-0001/KK4118 (LASOR PROJEKT) och Buffert Size Grant nr. W911NF-05-1-0224. Ashish Goels arbete fick också stöd av NSF-stipendiet och Alfred P. Sloan-stipendiet, och Tim Roughgardens arbete stöddes också delvis av ONR-stipendiet N00014-04-1-0725. har enorma paketbuffertar, som ofta lagrar miljontals paket, under antagandet att stora buffertar leder till god statistisk multiplexing och därmed effektiv användning av dyra långdistanslänkar. En allmänt använd regel-av-tumme anger att, på grund av dynamiken i TCP trängsel kontroll mekanism, en router behöver en bandbreddsfördröjning produkt av buffring, B = RTT × C, för att fullt ut utnyttja flaskhals länkar [5], [6], [16]. Här är C kapaciteten hos flaskhalslänken, B är storleken på bufferten i flaskhals routern, och RTT är den effektiva tur-trip förökning fördröjningen av ett TCP-flöde genom flaskhalslänken. Nyligen, Appenzeller et al. föreslås med hjälp av regel B = RTT × C/ ε N istället, där N är antalet flöden genom flaskhalslänken [3]. I ett stamnät idag, N är ofta i tusentals eller tiotusentals, och så storleksregeln B = RTT × C / В N resulterar i betydligt färre buffertar. I den här artikeln undersöker vi om och hur vi kan bygga ett nätverk med mycket mindre buffertar som fortfarande finns med bara några dussin paketbuffertar i varje router, och kanske på bekostnad av 100% länkanvändning. Även om detta är en intressant intellektuell övning i sig, skulle det bli praktiska konsekvenser om det var möjligt. För det första skulle det kunna underlätta byggandet av alloptiska routrar. Med de senaste framstegen [8], [9], [13] är det nu möjligt att utföra alloptiska byten, öppna dörren till routrar med enorm kapacitet och lägre effekt än elektroniska routrar. Nya tekniska framsteg möjliggör optiska FCFS paketbuffertar som kan hålla några dussin paket i ett integrerat optoelektroniskt chip [13]. Större alloptiska buffertar förblir ogenomförbara, utom med otympliga spolar av optisk fiber (som bara kan implementera fördröjningslinjer, inte riktiga FCFS paketbuffertar). Vi är intresserade av att undersöka genomförbarheten av ett operativt alloptiskt nätverk med bara några dussin optiska paketbuffertar i varje router. För det andra, om stora elektroniska routrar bara krävde några dussin paketbuffertar, skulle det kunna minska deras komplexitet, vilket gör dem lättare att bygga och lättare att skala. Ett typiskt Detta dokument i fulltext granskades av experter på ämnesfrågor i IEEE Communications Society för publicering i Proceedings IEEE Infocom. | Enachescu m.fl. REF hävdade att O(log W ) buffertar är tillräckliga för hög genomströmning, där W är trängsel fönsterstorlek på varje flöde, och router buffert kan även minskas till några dussin paket om en liten mängd länkanvändning offras. | 2,888,167 | Routers with Very Small Buffers | {'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 6,115 |
Abstract-Vi introducerar användningen av urskiljbara visuella attribut för ansiktsverifiering och bildsökning. Beskrivbara visuella attribut är etiketter som kan ges till en bild för att beskriva dess utseende. Detta dokument fokuserar på bilder av ansikten och de attribut som används för att beskriva dem, även om begreppen också gäller för andra domäner. Exempel på ansiktsattribut är kön, ålder, käkform, nosstorlek osv. Fördelarna med en attributbaserad representation för visionsuppgifter är många: De kan komponeras för att skapa beskrivningar på olika nivåer av specificitet; de är generaliserade, eftersom de kan läras en gång och sedan tillämpas för att känna igen nya objekt eller kategorier utan någon ytterligare utbildning; och de är effektiva, eventuellt kräver exponentiellt färre attribut (och utbildningsdata) än att uttryckligen namnge varje kategori. Vi visar hur man kan skapa och märka stora datamängder av verkliga bilder för att träna klassificeringar som mäter närvaron, frånvaron eller graden av ett attribut uttrycks i bilder. Dessa klassificeringar kan sedan automatiskt märka nya bilder. Vi demonstrerar den nuvarande effektiviteten och utforskar den framtida potentialen att använda attribut för ansiktsverifiering och bildsökning via mänskliga och beräkningsexperiment. Slutligen introducerar vi två nya ansiktsdataset, FaceTracer och PubFig, med märkta attribut respektive identiteter. | Kumar m.fl. REF föreslog en automatisk metod för att utföra ansiktsverifiering och bildsökning. | 1,151,924 | Describable Visual Attributes for Face Verification and Image Search | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,116 |
Kvaliteten på användargenererat innehåll varierar drastiskt från utmärkt till missbruk och skräppost. I takt med att tillgången till sådant innehåll ökar blir det allt viktigare att identifiera högkvalitativt innehåll på webbplatser som bygger på användarbidragsbaserade sociala medier. Sociala medier i allmänhet uppvisar en mängd olika informationskällor: förutom innehållet i sig finns det ett brett utbud av icke-innehållsinformation tillgänglig, såsom länkar mellan objekt och explicita kvalitetsbetyg från medlemmar i samhället. I detta dokument undersöker vi metoder för att utnyttja sådan feedback från samhället för att automatiskt identifiera högkvalitativt innehåll. Som testfall fokuserar vi på Yahoo! Svar, en stor community question / svar portal som är särskilt rik på mängden och typer av innehåll och sociala interaktioner som finns i den. Vi inför en allmän klassificeringsram för att kombinera bevis från olika informationskällor, som automatiskt kan ställas in för en viss typ av sociala medier och kvalitetsdefinition. Särskilt för gemenskapens fråge- och svarsområde visar vi att vårt system kan separera högkvalitativa objekt från resten med en noggrannhet som ligger nära människors. | I REF fokuserar författarna på Yahoo! Svar, en online community question/svar portal och bygga ett ramverk för innehållsanalys som identifierar högkvalitativa inlägg. | 2,228,835 | Finding high-quality content in social media | {'venue': "WSDM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,117 |
Djupa neurala nätverk visar för närvarande toppmoderna prestanda inom flera områden. Samtidigt är modeller av denna klass mycket krävande när det gäller beräkningsresurser. I synnerhet krävs en stor mängd minne av allmänt använda fullt anslutna lager, vilket gör det svårt att använda modellerna på low-end-enheter och stoppa ytterligare ökning av modellstorleken. I detta papper konverterar vi de täta viktmatriserna för de fullt anslutna skikten till Tensor Train [17]-formatet så att antalet parametrar minskas med en enorm faktor och samtidigt bevaras skiktets uttryckskraft. Särskilt för Very Deep VGG-nätverken [21] rapporterar vi komprimeringsfaktorn för den täta viktmatrisen för ett fullt uppkopplat lager upp till 200000 gånger vilket leder till komprimeringsfaktorn för hela nätverket upp till 7 gånger. | I anden, vår strategi liknar också den senaste användningen av tensor-train nedbrytning inom fullt anslutna neurala nätverk REF. | 290,242 | Tensorizing Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,118 |
Abstrakt. Omärkta dokumentsamlingar blir allt vanligare och tillgängliga. Med ord som funktioner, textdokument ofta representeras som högdimensionella och gles vektorer-ett par tusen dimensioner och en gleshet på 95 till 99% är typiskt. I den här artikeln studerar vi en viss sfärisk k-means algoritm för att samla sådana dokumentvektorer. Algoritmen outputs k separera kluster var och en med ett koncept vektor som är centroiden av kluster normaliseras för att ha enhet Euclidean norm. Som vårt första bidrag visar vi empiriskt att på grund av textdatans höga dimensionalitet och gleshet har de kluster som algoritmen producerar ett visst "fractalliknande" och "självliknande" beteende. Som vårt andra bidrag, introducerar vi koncept sönderdelningar för att approximera matrisen av dokumentvektorer; dessa sönderdelningar erhålls genom att ta den minsta-kvarts approximation till den linjära subrymden spänns av alla konceptvektorer. Vi konstaterar empiriskt att approximationsfelen i begreppsnedbrytningarna är nära de bästa möjliga, nämligen trunkerade singular value sönderdelningar. Som vårt tredje bidrag visar vi att konceptet vektorer är lokaliserade i ordet utrymme, är glesa, och tenderar till ortonormalitet. Däremot är de unika vektorerna globala i ordet utrymme och är täta. Icke desto mindre observerar vi det överraskande faktum att de linjära subrymder som spänns över av konceptvektorerna och de ledande enskilda vektorerna är ganska nära i betydelsen små huvudvinklar mellan dem. Sammanfattningsvis utgör de konceptvektorer som produceras av den sfäriska k-means-algoritmen en kraftfull gles och lokaliserad "basis" för textdatauppsättningar. | Dhillon och Modha REF införde sfäriska k-medel för att samla in glesa textdata. | 2,286,629 | Concept Decompositions for Large Sparse Text Data Using Clustering | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,119 |
Eftersom efterfrågan på mobilapplikationer fortsätter att öka, håller backhaul-nätet på att bli en flaskhals för att stödja hög erfarenhet (QoE) i nästa generations trådlösa nätverk. Innehållet caching vid basstationer (BS) är ett lovande tillvägagångssätt för att minska backhaul bördan och minska användar-upplevd latens. I det här dokumentet överväger vi ett trådlöst cachenät där alla BS är anslutna till en central styrenhet via backhaul-länkar. I ett sådant nätverk kan användarna få de uppgifter som krävs från kandidaten BS om uppgifterna är förinställda. I annat fall måste användaruppgifterna först hämtas från den centrala controllern till lokala BS, vilket inför extra fördröjning över backhaul. För att minska nedladdningsfördröjningen måste cacheplaceringsstrategin optimeras. Vi formulerar ett sådant design problem som minimering av den genomsnittliga nedladdningsfördröjningen över användarförfrågningar, med förbehåll för caching kapacitet begränsning av varje BS. Vår modell skiljer sig från befintliga verk och tar hänsyn till BS-samarbetet i radioaccessen och är fullt medveten om fördröjningen av spridningen på backhaul-länkarna. Design problemet är ett blandat heltal programmering problem och är mycket komplicerat, och därmed vi slappna av problemet och föreslå en låg komplexitet algoritm. Simuleringsresultat kommer att visa att den föreslagna algoritmen effektivt kan bestämma den nästan optimala cacheplaceringen och ge betydande resultatvinster jämfört med konventionella cacheplaceringsstrategier. Index Terms-Wireless caching nätverk, caching placering, nedladdningsfördröjning | Backhaul-aware caching placeringsstrategi för en grupp kooperativa BSs studeras i REF genom att lösa ett optimeringsproblem för att minimera den genomsnittliga nedladdningsfördröjningen. | 4,234,649 | Backhaul-Aware Caching Placement for Wireless Networks | {'venue': '2015 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2015 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,120 |
Nästa generations trådlösa nätverk (dvs. 5G och därefter), som skulle vara extremt dynamisk och komplex på grund av den ultradense utbyggnaden av heterogena nätverk (HetNets), innebär många kritiska utmaningar för nätverksplanering, drift, hantering och felsökning. Samtidigt blir generering och konsumtion av trådlösa data alltmer distribuerad med pågående paradigmskifte från personcentrerad till maskinorienterad kommunikation, vilket gör driften av framtida trådlösa nätverk ännu mer komplex. För att minska komplexiteten i framtida nätverksdrift blir nya metoder för intelligent utnyttjande av distribuerade beräkningsresurser med förbättrad kontextmedvetenhet mycket viktiga. I detta avseende har den framväxande databasarkitekturen för dimma (edge) som syftar till att distribuera data-, lagrings-, kontroll-, kommunikations- och nätverksfunktioner närmare slutanvändarna en stor potential för att möjliggöra en effektiv drift av framtida trådlösa nät. Dessa lovande arkitekturer gör antagandet av artificiell intelligens (AI) principer som inkluderar lärande, resonemang och beslutsfattande mekanism, som naturliga val för att utforma ett tätt integrerat nätverk. I detta syfte ger denna artikel en omfattande undersökning om användningen av AI integrera maskininlärning, dataanalys och naturliga språkbearbetning (NLP) tekniker för att öka effektiviteten i trådlösa nätverk drift. I synnerhet ger vi en omfattande diskussion om användningen av dessa tekniker för effektiv datainsamling, kunskapsupptäckt, nätverksplanering, drift och hantering av nästa generations trådlösa nätverk. En kort fallstudie som använder AI tekniker för detta nätverk har också tillhandahållits. | För detta ändamål, författarna i REF, ger en omfattande undersökning om utnyttjandet av AI integrera maskininlärning, dataanalys och naturlig språkbehandling (NLP) tekniker för att öka effektiviteten i trådlösa nätverk drift. | 34,702,660 | Machine Intelligence Techniques for Next-Generation Context-Aware Wireless Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,121 |
De senaste inbyggda systemen använder cache för att förbättra sin genomsnittliga prestanda. Aktuella tidsanalyser kan beräkna säkra tidsgarantier för dessa system, om uppgifterna håller på att slutföras. Om förebyggande schemaläggning är aktiverad, är de tidigare beräknade timing garantierna inte längre kvar. Vid varje programpunkt kan en förebyggande uppgift helt ändra cacheinnehållet. Denna iakttagelse måste beaktas genom tidsanalyser, vilket oundvikligen ökar deras komplexitet. Dessutom påverkar dessa cache-interferenser den övergripande prestandan för sådana system. Positionen för en uppgifts data avgör den del av cache aktiviteten kommer att uppta, och därmed cache-interferenser av de olika uppgifterna. I detta dokument presenterar vi en ny metod som beräknar en optimal uppgiftset placering med avseende på ovanstående kriterier. Detta innebär att vår metod ändrar startadresserna för uppgifterna så att antalet ihållande aktivitetsuppsättningar maximeras för varje uppgift. Vi visar att problemet med att hitta en optimal placering är NP-hård och presenterar en heuristisk för att approximera en optimal lösning. Slutligen visar vi med hjälp av simuleringar att vår metod kan förbättra den övergripande prestandan särskilt för heterogena och komplexa uppgifter. | I REF presenteras en teknik för omgruppering av uppgifternas positioner för att förbättra cacheprestandan. | 14,064,837 | Optimal task placement to improve cache performance | {'venue': "EMSOFT '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,122 |
Bakgrund: Ett ökande antal kliniska prövningar genomförs i primärvårdsmiljöer. Att bättre använda befintliga uppgifter i de elektroniska patientjournalerna för att identifiera berättigade försökspersoner kan förbättra effektiviteten i sådana studier. Vår studie syftar till att kvantifiera andelen behörighetskriterier som kan behandlas med data i elektroniska patientjournaler och att jämföra innehållet i behörighetskriterierna i primärvården med tidigare arbete. Metoder: Kriterier för berättigande har hämtats från primärvårdsstudier som laddats ner från UK Clinical Research Network Study Portfolio. Kriterierna bröts upp i elementära uttalanden. Två oberoende experter klassificerade varje uttalande baserat på huruvida strukturerade data i den elektroniska hälsojournalen kan användas för att avgöra om uttalandet var sant för en viss patient. Oenigheter i klassificeringen diskuterades tills en överenskommelse på 100 % nåddes. Uttalanden klassificerades också baserat på innehåll och procentandelarna för varje kategori jämfördes med två liknande studier som rapporterats i litteraturen. Resultat: Kriterier för berättigande har hämtats från 228 studier och dekomponerats i 2619 kriterier elementära uttalanden. 74 % av kriteriernas elementära uppgifter ansågs sannolikt vara förknippade med strukturerade uppgifter i en elektronisk hälsojournal. 79 % av studierna hade minst 60 % av sina kriterier med strukturerade uppgifter som sannolikt kommer att finnas i en elektronisk hälsojournal. Baserat på kliniskt innehåll var de vanligaste kategorierna: "sjukdom, symptom och tecken", "terapi eller kirurgi" och "medicinering" (36 %, 13 % respektive 10 % av de totala kriterierna). Vi identifierade också nya kriterier kategorier relaterade till leverantörer och vårdgivare attribut (2,6 % respektive 1 % av totala kriterier uttalanden respektive). Slutsatser: Elektroniska patientjournaler innehåller lätt en stor del av de data som behövs för att bedöma patienternas lämplighet för kliniska prövningar. Innehållskategorier för behörighetskriterier som identifierats i vår studie kan införlivas som dataelement i elektroniska patientjournaler för att underlätta deras integrering med system för hantering av kliniska prövningar. | Att bättre använda befintliga data i de elektroniska patientjournalerna för att identifiera berättigade försökspersoner kan förbättra effektiviteten och kvaliteten på sjukvården REF. | 7,883,212 | The value of structured data elements from electronic health records for identifying subjects for primary care clinical trials | {'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 6,123 |
Textklassificering är ett brett studerat problem, och det kan anses vara löst för vissa domäner och under vissa omständigheter. Det finns dock scenarier som har fått liten eller ingen uppmärksamhet alls, trots dess relevans och tillämplighet. Ett av dessa scenarier är tidig textklassificering, där man behöver känna till dokumentets kategori genom att endast använda partiell information. Ett dokument behandlas som en sekvens av termer, och målet är att utforma en metod som kan göra förutsägelser så snabbt som möjligt. Betydelsen av denna variant av textklassificeringsproblemet är uppenbar inom områden som upptäckt av sexuella rovdjur, där man vill identifiera en gärningsman så tidigt som möjligt. I detta dokument analyseras lämpligheten hos standardnaiva Bayes-klassificeringen för att närma sig detta problem. Särskilt bedömer vi dess prestanda när vi klassificerar dokument efter att ha sett ett allt större antal termer. En enkel ändring av den vanliga naiva Bayes genomförande gör att vi kan göra förutsägelser med partiell information. Såvitt vi vet har Naïve Bayes inte använts för detta ändamål tidigare. Under en omfattande experimentell utvärdering visar vi hur effektiv klassificeringen är för tidig textklassificering. Dessutom visar vi att denna enkla lösning är mycket konkurrenskraftig jämfört med de modernaste metoder som är mer utvecklade. Vi förutser att vårt arbete kommer att bana väg för utvecklingen av effektivare tidiga textklassificeringsmetoder baserade på den naiva Bayes-formuleringen. | På senare tid har Ref föreslagit en enkel lösning för scenarier för tidig upptäckt genom att använda den naiva Bayes-klassificeringen. | 17,743,403 | Early text classification: a Naive solution | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,124 |
I detta arbete studeras den gemensamma designen av moln- och kantbearbetning för nedlänken till ett dimradionät (F-RAN). I en F-RAN utförs molnbehandling av en basbandsenhet (BBU) som är ansluten till förbättrade fjärrradiohuvuden (eRRH) med hjälp av fronthaullänkar. Kantbehandling aktiveras istället genom lokal caching av populärt innehåll på eRRHs. Med fokus på utformningen av leveransfasen för en godtycklig förhämtningsstrategi föreslås en ny superpositionskodningsmetod som bygger på hybridanvändning av fronthaullänkarna i både hård överförings- och mjuköverföringslägen. Med den tidigare, non-cached filer kommuniceras över fronthaul länkar till en delmängd av eRRHs, medan, med den senare, fronthaul länkar används för att förmedla kvantiserade basband signaler som i ett moln RAN (C-RAN). Problemet med att maximera leveranshastigheten hanteras under fronthaulkapacitet och per-eRRH effektbegränsningar. Numeriska resultat tillhandahålls för att validera prestandan hos det föreslagna hybridleveranssystemet för olika referensstrategier för förhämtning. Index Terms-Cloud radio access nätverk, dim nätverk, caching, förkodning. | Papperet i REF studerade den gemensamma designen av moln- och kantbearbetning för nedlänken av F-RANs, där populära innehåll caching strategier bland RRHs var utformade för att maximera leveranshastigheten under fronthaul kapacitet och VolumeME 5, 2017 RRH effektbegränsningar. | 7,378,605 | Joint optimization of cloud and edge processing for fog radio access networks | {'venue': '2016 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2016 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,125 |
Djupa neurala nätverk (DNN) har visat sig vara användbara i ett brett spektrum av tillämpningar. De är dock också kända för att vara sårbara för kontradiktoriska prover. Genom att omvandla ett normalt prov med några noggrant tillverkade mänskliga icke-synliga perturbationer, även mycket exakta DNN gör felaktiga beslut. Flera försvarsmekanismer har föreslagits som syftar till att hindra uppkomsten av sådana kontradiktoriska prover. Ett nyligen utfört arbete visar emellertid att de flesta av dem är ineffektiva. I detta arbete föreslår vi ett alternativt tillvägagångssätt för att upptäcka kontradiktoriska prover vid körning. Vår huvudsakliga observation är att kontradiktoriska prover är mycket känsligare än normala prover om vi inför slumpmässiga mutationer på DNN. Vi föreslår därför först ett mått på "känslighet" och visar empiriskt att normala prover och kontradiktoriska prover har särskiljande känslighet. Vi integrerar sedan statistisk modellkontroll och mutationstestning för att kontrollera om ett ingångsprov sannolikt kommer att vara normalt eller kontradiktoriskt vid körtiden genom att mäta dess känslighet. Vi utvärderade vår strategi på MNIST och CIFAR10 datasetet. Resultaten visar att vår strategi påvisar kontradiktoriska prover som genereras av toppmoderna angreppsmetoder på ett effektivt och korrekt sätt. | En annan ny metod för att upptäcka kontradiktoriska prover föreslogs av Wang et al. Hoppa över det. | 55,702,297 | Adversarial Sample Detection for Deep Neural Network through Model Mutation Testing | {'venue': 'DBLP:conf/icse/2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,126 |
Modellering av meningslikheten kompliceras av tvetydigheten och variationen i det språkliga uttrycket. För att klara av dessa utmaningar föreslår vi en modell för att jämföra meningar som använder en mångfald av perspektiv. Vi modellerar först varje mening med hjälp av ett konvolutionellt neuralt nätverk som extraherar funktioner på flera nivåer av granularitet och använder flera typer av poolning. Vi jämför sedan våra meningsrepresentationer vid flera granulariteter med hjälp av flera likhetsmått. Vi tillämpar vår modell på tre uppgifter, inklusive Microsoft Research parafras identifiering uppgift och två SemEval semantiska text likhet uppgifter. Vi får stark prestanda på alla uppgifter, rivaliserande eller överträffar toppmoderna utan att använda externa resurser som WordNet eller tolker. | I vår strategi följer vi den arkitektur som föreslås av He et al. REF att hantera tvetydigheten och variationen i språkliga uttryck vid modellering av mening semantisk likhet. | 7,413,367 | Multi-Perspective Sentence Similarity Modeling with Convolutional Neural Networks | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,127 |
Vi studerar problemet med att generera nyckelfraser som sammanfattar de viktigaste punkterna i ett visst dokument. Även sekvens-till-sekvens (seq2seq) modeller har uppnått anmärkningsvärda prestanda på denna uppgift (Meng et al., 2017), modellutbildning bygger ofta på stora mängder märkta data, vilket endast är tillämpligt på resursrika domäner. I detta dokument föreslår vi delvis övervakade nyckelfrasgenereringsmetoder genom att utnyttja både märkta data och storskaliga omärkta prover för lärande. Två strategier föreslås. Först, omärkta dokument först taggas med syntetiska nyckelfraser som erhållits från oövervakade nyckelfras extraktionsmetoder eller en självlärande algoritm, och sedan kombineras med märkta prover för utbildning. Dessutom undersöker vi en multi-task lärande ram för att gemensamt lära sig att generera nyckelfraser samt titlarna på artiklarna. Experimentella resultat visar att våra halvövervakade inlärningsbaserade metoder överträffar en toppmodern modell som endast är utbildad med märkta data. | För att lösa detta problem föreslog Ref en delvis övervakad nyckelfrasgenereringsmodell genom att utnyttja både rikliga omärkta data och begränsade märkta data. | 52,059,063 | Semi-Supervised Learning for Neural Keyphrase Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,128 |
Flytande-punkt division buggen i Intels Pentium-processor och överflöd flagg erratum av FIST-instruktionen i Intels Pentium Pro och Pentium II-processor har visat vikten och svårigheten att verifiera flyttal-punkt aritmetiska kretsar. I detta dokument presenterar vi en "svart låda" version av verifiering av FP-tillägg. I vårt tillvägagångssätt, FP-tillägg verifieras med en utökad ordnivå SMV med återanvändbara specifikationer utan att veta kretsens genomförande. Word-nivå SMV förbättras genom att använda multiplicative Power HDDs (*PHDDs), och genom att införliva villkorlig symbolisk simulering samt en kortslutningsteknik. Baserat på en fallanalys är additionsspecifikationen uppdelad i flera hundra underspecifikationer som inte är beroende av genomförandet. Vi tillämpade vårt system och dessa specifikationer för att verifiera IEEE dubbla precision FP adder i Aurora III Chip från University of Michigan. Vårt system hittade flera konstruktionsfel i denna FP-tillägg. Varje specifikation kan kontrolleras på mindre än 5 minuter. En variant av den korrigerade FP-tillägget skapades för att illustrera vårt systems förmåga att hantera olika FP-tilläggskonstruktioner. För varje tillägg, verifieringsuppgiften avslutades i 2 CPU timmar på en Sun UltraSPARC-II-server. | Chen och Bryant REF använde word-level SMV för att verifiera en flyttal-point adder. | 1,321,355 | Verification of Floating-Point Adders | {'venue': 'CAV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,129 |
Vi beskriver utvecklingen av en automatiserad agent som kan förhandla effektivt med människor i kriser. Miljön kännetecknas av två förhandlare, tidsbegränsningar, tidsfrister, fullständig information och möjligheten att välja bort. Agenten kan spela endera rollen, med kommunikation via ett fördefinierat språk. Modellen som används för att konstruera agenten bygger på en formell analys av krisscenariot med hjälp av spelteoretiska metoder och heuristik för förhandling. Agenten får meddelanden som skickas av motståndaren, analyserar dem och svarar. Den inleder också diskussioner om en eller flera parametrar i ett avtal. Experimentella resultat av simuleringar av en fisketvist mellan Kanada och Spanien tyder på att agenten spelade minst lika bra som, och när det gäller Spanien, betydligt bättre än en mänsklig aktör. | Dessutom, i en nyligen publicerad tidning, Kraus m.fl. REF beskriver en automatiserad agent som förhandlar effektivt med människor. | 15,097,248 | Resolving crises through automated bilateral negotiations ? | {'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,130 |
Automatiserad analys av näthinnans bild har framträtt som ett viktigt diagnostiskt verktyg för tidig upptäckt av ögonrelaterade sjukdomar som glaukom och diabetesretinopati. I detta dokument har vi presenterat en robust metodik för optisk diskdetektering och gränssegmentering, vilket kan ses som det inledande steget i utvecklingen av ett datorstödd diagnostiskt system för glaukom i retinala bilder. Den föreslagna metoden är baserad på morfologiska operationer, den cirkulära Houghtransform och den grow-cut algoritmen. De morfologiska operatörerna används för att förbättra den optiska skivan och ta bort näthinnan vaskulatur och andra patologier. Den optiska skivan centrum är ungefärlig med hjälp av den cirkulära Hough transform, och den growing-cut algoritmen används för att exakt segmentera den optiska skivan gränsen. Metoden är kvantitativt utvärderad på fem offentligt tillgängliga retinala bilddatabaser DRIVE, DIARETDB1, CHASE_DB1, DRIONS-DB, Messidor och en lokal Shifa sjukhusdatabas. Metoden uppnår en hastighet på 100% för detektering av optiska skivor för dessa databaser, med undantag för 99,09 % respektive 99,25 % för DRIONS-DB, Messidor respektive ONHSD-databaser. Den optiska skivgränsdetekteringen uppnådde en genomsnittlig rumslig överlappning på 78,6%, 85,12%, 83,23%, 85,1%, 87,93%, 80,1%, respektive 86,1%, för dessa databaser. Denna unika metod har visat betydande förbättringar jämfört med befintliga metoder när det gäller detektion och gränsextraktion av den optiska skivan. | Abdullah m.fl. REF segmenterade OD-gränsen med hjälp av growcut-algoritmen. | 7,737,064 | Localization and segmentation of optic disc in retinal images using circular Hough transform and grow-cut algorithm | {'venue': 'PeerJ', 'journal': 'PeerJ', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,131 |
Tidigare metoder har i allmänhet identifierat platsen för ett typfel som en viss programpunkt eller programdelträdet rotade vid den punkten. Vi presenterar ett nytt tillvägagångssätt som identifierar platsen för ett typfel som en uppsättning programpunkter (en skiva) som alla är nödvändiga för typfelet. Vi identifierar kriterierna för fullständighet och minimalitet för typfelbitar. Vi diskuterar fördelarna med kompletta och minimala typfelskivor jämfört med tidigare metoder för att presentera typfel. Vi presenterar och bevisar riktigheten av algoritmer för att hitta kompletta och minimala typ felbitar för implicit skrivit högre-order språk som Standard ML. | En motstridig uppsättning av typ begränsningar kallas en typ fel skiva REF. | 8,012,494 | Type error slicing in implicitly typed higher-order languages | {'venue': 'Sci. Comput. Program.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,132 |
Abstract-Cloud computing har föreslagit ett nytt perspektiv för att tillhandahålla storskaliga datorresurser med hjälp av virtualiseringsteknik och en kostnadsmodell för payper-use. Belastningsbalansering beaktas som en viktig del för parallella och distribuerade system. Det hjälper molndatasystem genom att förbättra den allmänna prestandan, bättre utnyttjande av datorresurser, energiförbrukningshantering, förbättra molntjänsternas QoS, undvika brott mot SLA och upprätthålla systemstabilitet genom distribution, styrning och hantering av systemets arbetsbelastning. I detta dokument studerar vi de nödvändiga kraven och övervägandena för att utforma och implementera en lämplig belastningsbalanser för molnmiljöer. Dessutom representerar vi en komplett kartläggning av nuvarande föreslagna molnlastbalanseringslösningar som enligt vår klassificering kan delas in i tre kategorier: Allmänna Algoritm-baserade, Arkitekturbaserade och Artificiella Intelligens-baserade lastbalanseringsmekanismer. Slutligen föreslår vi att vi utvärderar dessa lösningar utifrån lämpliga mått och diskuterar deras för- och nackdelar. | Mesbahi och Rahmani REF klassificerade lastbalanseringsalgoritmer i tre kategorier: allmän algoritm baserad, arkitektonisk och artificiell intelligens baserad, studerade de grundläggande kraven och väsentliga för att utforma och genomföra en önskad belastningsbalanser för molnleverantör. | 44,500,477 | Load Balancing in Cloud Computing: A State of the Art Survey | {'venue': None, 'journal': 'International Journal of Modern Education and Computer Science', 'mag_field_of_study': ['Computer Science']} | 6,133 |
Abstract-This paper presenterar en interaktiv teknik som producerar statiska frisyrer genom att generera enskilda hårstrån av önskad form och färg, under förutsättning att det finns gravitation och kollisioner. En mängd olika frisyrer kan genereras genom att justera wisp parametrar, medan deformationen löses effektivt, vilket förklarar effekterna av gravitation och kollisioner. Wisps skapas med hjälp av statistiska metoder. När det gäller hår deformation, föreslår vi en metod som bygger på fysiska simuleringskoncept, men förenklas för att effektivt lösa den statiska formen av hår. Ovanpå den statistiska wisp modellen och deformation lösaren, föreslås en restriktion-baserad styler att modellera konstgjorda funktioner som motsätter sig det naturliga flödet av hår under gravitation och hår elasticitet, såsom en hårnål. Vår teknik spänner över ett bredare spektrum av mänskliga frisyrer än tidigare föreslagna metoder och de stilar som genereras av denna teknik är ganska realistiska. | En interaktiv teknik baserad på en statistisk wisp modell och en fysiskt baserad statisk deformation lösare föreslås i REF att modellera ett brett utbud av frisyrer. | 9,412,085 | A statistical wisp model and pseudophysical approaches for interactive hairstyle generation | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,134 |
Lära sig att lösa komplexa sekvenser av uppgifter-samtidigt både utnyttja överföring och undvika katastrofala glömska-fortsätter ett viktigt hinder för att uppnå mänsklig nivå intelligens. De progressiva nätverken utgör ett steg framåt i denna riktning: de är immuna mot glömska och kan utnyttja förkunskaper via sidoanslutningar till tidigare inlärda funktioner. Vi utvärderar denna arkitektur utförligt på ett brett utbud av förstärka lärande uppgifter (Atari och 3D labyrintspel), och visar att det överträffar gemensamma baslinjer baserade på förträning och finjustering. Med hjälp av en ny känslighetsmått, visar vi att överföring sker på både låg nivå sensoriska och hög nivå kontrollskikt av den inlärda policyn. | Mest relevant för oss är de progressiva nätverken av Ref, som ursprungligen föreslogs för att stärka lärandet. | 15,350,923 | Progressive Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,135 |
Abstrakt. Ett av de största hindren för en bredare användning av webbdata är svårigheten att få en tydlig bild av de tillgängliga datamängderna. För att återanvända, länka, revidera eller fråga en datauppsättning som publiceras på webben är det viktigt att känna till informationens struktur, täckning och enhetlighet. För att få sådan information utvecklade vi LODStats -ett uttalande-stream-baserat tillvägagångssätt för att samla in omfattande statistik om datauppsättningar som följer ramen för resursbeskrivning (RDF). LODStats baseras på den deklarativa beskrivningen av statistiska datauppsättningsegenskaper. Dess främsta fördelar jämfört med andra metoder är ett mindre minnesavtryck och betydligt bättre prestanda och skalbarhet. Vi integrerade LODStats med CKAN-datauppsättningens metadataregister och fick en heltäckande bild av det aktuella tillståndet för en betydande del av Data Web. | Om den statistiska analysen av webbdatauppsättningar, Auer et al. REF presenterar ett uttalande-stream-baserat tillvägagångssätt för att samla in omfattande statistik om RDF dataset som skiljer sig från vårt tillvägagångssätt eftersom vi inte fokuserar på strömmar. | 6,271,351 | LODStats – An Extensible Framework for High-performance Dataset Analytics | {'venue': 'EKAW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,136 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Konceptet Fast R-CNN utvidgades ytterligare i Faster R-CNN REF genom införande av ett nätverk för regionförslag (RPN). | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,137 |
Användningen av fjärrfördelade datorresurser som ett enda system erbjuder stor potential för beräkningsintensiva tillämpningar. Allt fler användare har tillgång till hundratals eller tusentals maskiner samtidigt och vill utnyttja dessa resurser samtidigt. För att ge en rimlig användarupplevelse måste sådana system tillhandahålla ett effektivt och skalbart schemaläggningssystem. Tyvärr, den stora majoriteten av jobb schemaläggare är centraliserade och många inte skala väl till tusentals eller ens hundratals noder. I detta dokument studerar vi hur distribuerade schemaläggningssystem kan utformas mest effektivt; vi fokuserar på problemet med att välja ett optimalt arrangemang av schemaläggare, eller en installation, för hierarkiskt organiserade system. Vi visar att den optimala utplaceringen är ett komplett spännande d-ary träd; detta resultat överensstämmer med resultaten från schemaläggningslitteraturen. Ännu viktigare är att vi presenterar en strategi för att fastställa den optimala graden d för trädet. För att testa vårt tillvägagångssätt använder vi DIET, ett middleware system som använder hierarkiska schemaläggare. Vi utvecklar detaljerade prestandamodeller för DIET och validerar dessa modeller i en verklig miljö. Slutligen visar vi att vårt tillvägagångssätt väljer ut utplaceringar som är nästan optimala i praktiken. | I REF presenterade vi en strategi för att automatiskt bestämma optimal användning för hierarkiskt distribuerade tjänster på heterogena kluster. | 12,142,569 | Automatic Middleware Deployment Planning On Clusters | {'venue': None, 'journal': 'The International Journal of High Performance Computing Applications', 'mag_field_of_study': ['Computer Science']} | 6,138 |
Detta dokument beskriver en studie av utvecklingen av distribuerat beteende, särskilt kontrollen av agenter i ett mobilt ad hoc-nätverk, med hjälp av neuroevolution. I neuroevolution är en population av artificiella neurala nätverk (ANN) föremål för mutation och naturligt urval. För denna studie jämför vi tre olika neuroevolutionära system: en direkt kodning, en indirekt kodning, och en indirekt kodning som stöder heterogenitet. Flera varianter av vart och ett av dessa system testades på ett problem där agenter kunde samordna sitt kollektiva beteende. Specifikt, rörelse av agenter i en simulerad fysik miljö påverkade vilka agenter kunde kommunicera med varandra. Resultaten av experiment visar att detta är en utmanande problemdomän för neuroevolution, och även om direkta och indirekta kodningar tenderade att utföra på samma sätt i våra tester, de strategier som används av indirekta kodningar tenderade att gynna stabila, sammanhållna grupper, medan de direkta kodning versionerna verkade mer stokastiska i naturen. | I en tidigare studie använde vi en mängd olika neuroevolutionära metoder för att upptäcka neurala nätverksstyrenheter för noder i en MANET REF. | 8,887,578 | Neuroevolution of mobile ad hoc networks | {'venue': "GECCO '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,139 |
Cloud computing håller på att bli en viktig komponent i moderna dator- och kommunikationssystem. Tillgängliga resurser i molnet såsom datornoder, lagring, databaser, etc. paketeras ofta i form av virtuella maskiner som ska användas av fjärrbaserade klientapplikationer för beräkningsuppgifter. Molnet har dock ett begränsat antal virtuella maskiner tillgängliga, som måste användas effektivt för att generera högre produktivitet och därefter generera maximala intäkter. Kundapplikationer genererar förfrågningar med beräkningsuppgifter vid slumpmässiga tillfällen med slumpmässig komplexitet som ska behandlas av molnet. Leverantören av molntjänster (CSP) måste avgöra om en virtuell dator ska tilldelas en uppgift eller vänta på en mer komplex uppgift i framtiden. Vi föreslår en tröskelbaserad mekanism för att optimalt bestämma fördelningen och prissättningen av virtuella maskiner för att successivt anlända förfrågningar för att maximera intäkterna från CSP över en ändlig tidshorisont. Dessutom utvecklar vi en anpassningsbar och motståndskraftig ram baserad på vilken kan motverka effekten av realtidsförändringar i antalet tillgängliga virtuella maskiner på molnservern, frekvensen och arten av anländande uppgifter på intäkterna från CSP. | Författarna till REF anser att ett molnbaserat system inklusive IoT-prenumerant och föreslå en tröskelbaserad metod för att besluta prissättning och tilldelning av virtuella maskiner för att successivt anlända förfrågningar för att maximera intäkterna från molntjänstleverantören över en begränsad tidshorisont. | 3,568,606 | Adaptive and Resilient Revenue Maximizing Dynamic Resource Allocation and Pricing for Cloud-Enabled IoT Systems | {'venue': 'Annual American Control Conference (ACC 2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,140 |
I ett trådlöst nätverk ändras ofta uppsättningen sändande noder på grund av MAC schemaläggaren och trafikbelastningen. Tidigare har anslutning i trådlösa nätverk analyserats med hjälp av statiska geometriska grafer, och som vi visar leder till ett alltför begränsat designkriterium. Den dynamiska karaktären hos den sändande uppsättningen introducerar ytterligare slumpmässighet i ett trådlöst system som förbättrar konnektiviteten, och denna ytterligare slumpmässighet fångas inte av en statisk konnektivitetskurva. I detta dokument överväger vi ett ad hoc-nätverk med halv-duplex radio som använder multihop routing och slitsade ALOHA för MAC-frågan och införa en slumpmässig dynamisk multi-digraph för att modellera sin anslutning. Vi ger först analytiska resultat om gradens fördelning av grafen. Därefter definierar vi den tid som krävs för att en kausal väg ska bildas mellan källan och destinationen på den dynamiska grafen, och härleder fördelningsegenskaperna hos anslutningsfördröjningen med hjälp av tekniker från första-passage perkolering och epidemiska processer. Vi anser att den gigantiska komponenten i det nätverk som bildas när kommunikationen är bullerbegränsad (genom att försumma störningar). Sedan, i närvaro av störningar, bevisar vi att fördröjningen skalar linjärt med källdestinationsavståndet på denna jättekomponent. Vi tillhandahåller även simuleringsresultat för att stödja de teoretiska resultaten. | Ett dynamiskt konnektivitetsdiagram för ALOHA-nät införs i REF för att fastställa skallagen för fördröjningen med avseende på källdestinationsavståndet. | 5,564,885 | Dynamic Connectivity in ALOHA Ad Hoc Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,141 |
där rimliga regioner föreslogs i det första steget följt av ett andra steg för förfining av beslut. Trots enkelheten i utbildningen och effektiviteten i införandet, har metoderna för att upptäcka enstaka steg inte varit lika konkurrenskraftiga när de utvärderats i riktmärken överväga mAP för höga IoU-trösklar. I detta dokument föreslog vi ett nytt nätverk för att upptäcka föremål från ett enda steg till ett annat för att övervinna denna begränsning. Vi uppnådde detta genom att införa Recurrent Rolling Convolution (RRC) arkitektur över flerskaliga funktionskartor för att konstruera objekt klassificerare och avgränsa box regressorer som är "djupt i sitt sammanhang". Vi utvärderade vår metod i det utmanande KITTI-datasetet som mäter metoder under IoU-tröskeln på 0,7. Vi visade att med RRC, en enda reducerad VGG-16-baserad modell redan betydligt överträffade alla tidigare publicerade resultat. Vid den tiden detta papper skrevs våra modeller rankas den första i KITTI bildetektion (den hårda nivån), den första i cyklistdetektion och den andra i fotgängardetektion. Dessa resultat uppnåddes inte med hjälp av de tidigare metoderna i ett enda steg. Koden är allmänt tillgänglig. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | I REF föreslår författarna en återkommande rullande konvolutionsarkitektur (RRC) ovanpå SSD-modellen, som ger högsta detektionsprestanda för detektion av fotgängare. | 7,921,898 | Accurate Single Stage Detector Using Recurrent Rolling Convolution | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,142 |
Sammanfattning av denna webbsida: Det är viktigt att fastställa satelliternas relativa ställning i samband med rymdkontakter och serviceuppdrag på plats. De viktigaste problemen är införandet av lämplig sensor ombord på en jagare och effektiva tekniker för pose estimering. Detta dokument syftar till att uppskatta posen av en målsatellit i nära intervall på grundval av dess kända modell genom att använda punktmolnsdata som genereras av en flash-LIDAR-sensor. En ny modell baserad pose estimeringsmetod föreslås; den innehåller en snabb och tillförlitlig pose initial anskaffningsmetod baserad på global optimal sökning genom att behandla de täta punktmolnsdata direkt, och en pose tracking metod baserad på Iterative Closest Point algoritm. Dessutom presenteras ett simuleringssystem i detta dokument för att utvärdera sensorns prestanda och generera simulerade sensorpunktsdata. Det ger också sanning pose av testmålet så att pose uppskattning fel kan kvantifieras. För att undersöka effektiviteten av den föreslagna metoden och uppnåelig pose noggrannhet utförs numeriska simuleringsförsök; resultaten visar algoritm förmåga att arbeta med punktmoln direkt och stora pose variationer. Dessutom genomförs ett fälttestförsök och resultaten visar att den föreslagna metoden är effektiv. | Liu m.fl. föreslog en ny global punkt molnet registrering algoritm baserad på översättning domän uppskattning metod REF. | 15,372,995 | Point Cloud Based Relative Pose Estimation of a Satellite in Close Range | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 6,143 |
Abstract-This paper föreslår ett gemensamt system för efterfrågeflexibilitet (CDR) för hantering av belastningar i smarta nät. CDR-systemet är formulerat som ett begränsat optimeringsproblem som genererar en Pareto-optimal responsstrategi profil för konsumenterna. Jämfört med den icke-kooperativa svarsstrategin (dvs. Nash-jämvikt) som erhålls från efterfrågehanteringsspelet med en enda chans, minskar Pareto-optimal svarsstrategi elkostnaderna för konsumenterna. Vi utvecklar vidare en incitamentskompatibel trigger-and-punishment mekanism för att undvika icke-kooperativa beteenden hos de själviska konsumenterna. Dessutom tillämpas CDR-systemet för att uppnå lasthantering av kyl- och fryslager i industrin. För att genomföra CDR-systemet i storskaliga system grupperar vi kyllagren i kluster och använder CDR-systemet i varje kluster. Numeriska resultat visar att CDR-systemet kan minska elkostnaderna, sänka elpriserna och minska den totala energiförbrukningen jämfört med det icke samarbetsvilliga systemet för efterfrågeflexibilitet. Indexvillkor-Samarbete | För energihanteringssystem för mikrogrid baserade på kooperativa spel föreslogs ett system för samordnad efterfrågeflexibilitet för att minska konsumenternas elräkningar i REF. | 16,925,309 | A Cooperative Demand Response Scheme Using Punishment Mechanism and Application to Industrial Refrigerated Warehouses | {'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science', 'Economics']} | 6,144 |
Abstract Architectural designs är ett viktigt sätt att hantera utvecklingen och spridningen av informationsteknik (IT). Mycket debatt har pågått om en riktig definition av arkitektur inom IT och om hur den ska beskrivas. År 2000 föreslog IEEE Std 1471 en modell av en arkitekturbeskrivning och dess sammanhang, som har hälsats med ett varmt välkomnande av många yrkesverksamma inom IT, men som ännu inte har tillämpats mycket. I detta dokument undersöks avståndet mellan IEEE Std 1471 och nuvarande praxis. Vi har studerat fyra verkliga arkitekturbeskrivningar från en bank- och konsultfirmas praktik. I dessa dokument föreslås strategiska beslut om ansökningsportföljer och sammanställs utan hänvisning till IEEE Std 1471. Våra forskningsfrågor var: vilka delar av dokumentet är, enligt författarnas uppfattning, relevanta för vilka intressentgrupper? Och föreslår detta "relevansmönster" en alternativ organisation med hänsynsfulla åsikter? Med andra ord, kan de befintliga dokumenten (manuellt) omarbetas till IEEE Std 1471 dokument? Svaren på dessa frågor gör det möjligt för upphovsmännen att kommunicera mer effektivt till intressenterna och kan bidra till framtida automatiserad dokumentgenerering. Vi fann att "resiliensmönstret" är mycket spritt och att en alternativ organisation inte är uppenbar. De flesta farhågor behandlas av en relativt liten, men varje gång mycket olika, del av dokumentet. Så en ny utformning av dessa dokument till IEEE Std 1471 dokument skulle medföra en nästan fullständig omskrivning. Vår forskning gör det mycket förståeligt att läsarna klagar på för mycket information. Vissa intressenter kan mycket väl ha svårt att hitta information som är av intresse för dem. Författarna till arkitekturdokumenten ansåg att denna undersökning var en värdefull övning, som de anser skulle kunna vidareutvecklas till ett utvärderingsinstrument för denna typ av dokumentation. Omvänt gör upphovsmännen till arkitekturdokumenten väl i att göra sina intressenter och deras farhågor tydliga. | En annan undersökning undersökte AD-tillverkarnas uppfattningar om hur relevanta de olika delarna av en AD är för dess upplevda intressenter och deras farhågor. | 1,411,401 | Real-life IT architecture design reports and their relation to IEEE Std 1471 stakeholders and concerns | {'venue': 'Automated Software Engineering', 'journal': 'Automated Software Engineering', 'mag_field_of_study': ['Computer Science']} | 6,145 |
Abstract-Next-generation WLAN kommer att stödja användningen av bredare kanaler, som kallas kanalbindning, för att uppnå högre genomströmning. Eftersom både kanalcentrumfrekvensen och kanalbredden är autonomt valda av varje WLAN, kan användningen av bredare kanaler också öka konkurrensen med andra WLAN som är verksamma i samma område för tillgängliga kanalresurser. I den här artikeln analyserar vi interaktionerna mellan en grupp angränsande WLAN som använder kanalbindning och utvärderar effekten av dessa interaktioner på den uppnåeliga genomströmningen. En kontinuerlig tid Markov Network (CTMN) modell som kan fånga den kopplade dynamiken i en grupp överlappande WLANs införs och valideras. Resultaten visar att användningen av kanalbindning kan ge betydande prestandavinster även i scenarier med en hög täthet av WLANs, även om det kan orsaka orättvisa situationer där vissa WLANs får de flesta av överföringsmöjligheterna medan andra svälter. | I Ref, författare visar att CB kan ge betydande resultat vinster även i högdensitetsscenarier, även om det kan orsaka orättvisa. | 10,178,988 | On the Interactions between Multiple Overlapping WLANs using Channel Bonding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,146 |
ABSTRACT: Nyligen genomförda studier har till stor del undersökt upptäckten av anomalier i klasskonstruktioner. De föreslog en stor uppsättning mätvärden som hjälper till att upptäcka dessa avvikelser och förutsäga kvaliteten på klassdesign. Även om dessa studier och de föreslagna mätvärdena är värdefulla, tar de inte upp de särskilda egenskaperna hos programvarugränssnitt. Gränssnitt definierar kontrakt som beskriver hur programvarumoduler och logiska enheter interagerar med varandra. I detta dokument föreslås en förteckning över konstruktionsfel relaterade till gränssnitt: delad likhet mellan gränssnitt, gränssnittskloner och redundans i gränssnittshierarkin. Vi identifierar och beskriver dessa konstruktionsfel genom verkliga exempel, tagna från välkända Javaapplikationer. Sedan definierar vi tre mätvärden som hjälper till att automatiskt uppskatta gränssnittets designkvalitet, när det gäller de föreslagna konstruktionsavvikelserna, och identifiera refaktorkandidater. Vi undersöker våra mätvärden och visar deras användbarhet genom en empirisk studie som genomförs på tre stora Javaapplikationer. | Författarna i REF definierar en ny lista över mått för att bedöma designkvaliteten hos gränssnitt med avseende på redundans i gränssnittshierarkier och likheter mellan gränssnitt. | 16,059,920 | Metrics for Assessing The Design of Software Interfaces | {'venue': 'Hani Abdeen and Osama Shata."Metrics for Assessing the Design of Software Interfaces."International Journal of Advanced Research in Computer and Communication Engineering (IJARCCE) 1.10 (2012): 737-745', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,147 |
Bakgrund: Sköldkörtelcancer är den vanligaste endokrina tumören med en stadig ökning av incidensen. Det klassificeras i flera histopatologiska subtyper med potentiellt distinkta molekylära mekanismer. Att identifiera de mest relevanta gener och biologiska vägar som rapporterats i sköldkörtelcancerlitteraturen är viktigt för att förstå sjukdomen och utveckla riktade terapier. Resultat: Vi utvecklade ett storskaligt textbrytningssystem för att generera en molekylär profilering av undertyper av sköldkörtelcancer. Systemet använder först en subtyp klassificeringsmetod för sköldkörtelcancer litteratur, som använder ett poängsättningsschema för att tilldela olika subtyper till artiklar. Vi utvärderade klassificeringsmetoden på en guldstandard härledd från PubMed Supplementary Concept annotations, uppnå en mikro-genomsnittlig F1-poäng på 85,9% för primära subtyper. Vi använde sedan subtyp klassificering resultat för att extrahera gener och vägar i samband med olika sköldkörtelcancer subtyper och framgångsrikt presenterade viktiga gener och vägar, inklusive några fall som saknas från nuvarande manuellt kommenterade databaser eller senaste översynsartiklar. Slutsatser: Identifiering av viktiga gener och vägar spelar en central roll för förståelsen av sköldkörtelcancerns molekylära biologi. En integrering av subtyp sammanhang kan tillåta prioriterad screening för diagnostiska biomarkörer och nya molekylära riktade terapier. Källkod som används för denna studie görs fritt tillgänglig på https:// github.com/chengkun-wu/GenesThyCan. | Vi har använt textbrytning för att konstruera en molekylär profilering (relaterade gener och vägar) av sköldkörtelcancer, klassificerad av vanliga subtyper REF. | 2,622,219 | Molecular profiling of thyroid cancer subtypes using large-scale text mining | {'venue': 'BMC Medical Genomics', 'journal': 'BMC Medical Genomics', 'mag_field_of_study': ['Medicine', 'Biology']} | 6,148 |
I detta dokument föreslår vi en effektiv ansiktskompletteringsalgoritm med hjälp av en djup generativ modell. Annorlunda än välstuderad bakgrundskomplettering är uppgiften att slutföra ansiktet mer utmanande eftersom det ofta kräver att generera semantiskt nya pixlar för de saknade nyckelkomponenterna (t.ex. ögon och munnar) som innehåller stora variationer i utseendet. Till skillnad från befintliga icke-parametriska algoritmer som söker efter patchar att syntetisera, genererar vår algoritm direkt innehåll för saknade regioner baserat på ett neuralt nätverk. Modellen är tränad med en kombination av en rekonstruktion förlust, två motgångar förluster och en semantisk parsing förlust, som garanterar pixel trohet och lokalt-global innehåll konsekvens. Med omfattande experimentella resultat visar vi kvalitativt och kvantitativt att vår modell kan hantera ett stort område med saknade pixlar i godtyckliga former och generera realistiska resultat i ansiktet. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF använder en djup generativ modell för att generera den skadade delen av ansiktet. | 9,459,250 | Generative Face Completion | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,150 |
Vi introducerar LZ-End, en ny medlem av Lempel-Ziv-familjen av textkompressorer, som uppnår kompressionsförhållanden nära dem i LZ77 men presterar mycket snabbare på att extrahera godtyckliga textdelsträngar. Vi bygger sedan det första självindexet baserat på LZ77 (eller LZ-End) komprimering, som förutom textextrahering erbjuder snabba indexerade sökningar på komprimerad text. Detta självindex är särskilt effektivt för att representera mycket repetitiva sekvenssamlingar, som till exempel uppstår vid lagring av versionerade dokument, programvaruarkiv, periodiska publikationer och biologiska sekvensdatabaser. | REF beskriver ett självindex för LZ77-kompressioner av mycket repetitiva samlingar. | 17,086,051 | On Compressing and Indexing Repetitive Sequences | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,151 |
Finit-state Transducers (FST) kan vara mycket effektivt för att genomföra inter-dialektal translitterering. Vi illustrerar detta med hindi - och urduspråksparet. FST kan också användas för översättning mellan ytnära språk. Vi introducerar UIT (universal mellanliggande transkription) för samma par på grundval av deras gemensamma fonetiska arkiv på ett sådant sätt att det kan utvidgas till andra språk som arabiska, kinesiska, engelska, franska, etc. Vi beskriver en translittereringsmodell baserad på FST och UIT, och utvärderar den på Hindi och Urdu corpora. | REF använder handgjorda regler kodade med hjälp av finita tillståndsgivare för att translitterera mellan Hindi och Urdu. | 7,486,840 | Hindi Urdu Machine Transliteration using Finite-State Transducers | {'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,152 |
När tillverkningen stoppas måste tillverkaren besluta om partistorleken i den slutliga produktionen för att täcka reservdelsefterfrågan under slutbehandlingsfasen. Detta beslut kan stödjas genom att man förutser hur stor efterfrågan som förväntas i framtiden. Prognoser kan erhållas från den installerade basen av produkten, dvs. antalet produkter som fortfarande används. Konsumentens beslut om huruvida en felfunktionsprodukt ska repareras eller inte beror på den specifika produkten och reservdelen. Dessutom kan konsumenterna skilja sig åt i sina beslut, till exempel när det gäller produkter med snabba innovationer och förändrade sociala trender. Konsumentbeteende kan redovisas genom att använda lämpliga typer av installerade bas, till exempel full installerad bas för billiga men väsentliga reservdelar av dyra produkter, och garanti installerad bas för dyra reservdelar av produkter med kort livscykel. I dokumentet presenteras en allmän metod för installation av basprognoser för reservdelsefterfrågan vid uttjänta produkter och man formulerar forskningshypoteser om vilka av fyra installerade bastyper som fungerar bäst under vilka förhållanden. Metoden illustreras av fallstudier för arton reservdelar på sex produkter från ett konsumentelektronikföretag. Forskningshypoteser stöds i de flesta fall, och prognoser som erhållits från installerade bas är betydligt bättre än enkla svart box prognoser. Inbegripet tidigare försäljning via installerad bas stöder slutliga produktionsbeslut för att tillgodose konsumenternas framtida efterfrågan på reservdelar. | Ref presenterade en allmän metod för att prognostisera reservdelsefterfrågan i slutet av livscykeln baserad på fyra typer av installerad bas. | 2,296,431 | Spare part demand forecasting for consumer goods using installed base information | {'venue': 'Comput. Ind. Eng.', 'journal': 'Comput. Ind. Eng.', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,153 |
Abstract-Person re-identifikation (re-ID) har blivit allt populärare i samhället på grund av dess tillämpning och forskningsbetydelse. Det syftar till att upptäcka en person av intresse för andra kameror. Under de första dagarna rapporterades huvudsakligen handgjorda algoritmer och småskalig utvärdering. De senaste åren har det uppstått storskaliga datamängder och system för djupinlärning som använder sig av stora datavolymer. Med tanke på olika uppgifter klassificerar vi de flesta nuvarande om-ID-metoderna i två klasser, dvs. bildbaserade och videobaserade; i båda uppgifterna kommer handgjorda och djupinlärningssystem att ses över. Dessutom beskrivs och diskuteras två nya re-ID-uppgifter som ligger mycket närmare verkliga tillämpningar, dvs. end-to-end re-ID och snabb re-ID i mycket stora gallerier. Detta dokument: 1) introducerar personens historia och dess förhållande till bildklassificering och hämtning av exempel, 2) undersöker ett brett urval av handgjorda system och storskaliga metoder i både bild- och videobaserad hämtning, 3) beskriver kritiska framtida riktningar i end-to-end re-ID och snabb hämtning i stora gallerier, och 4) slutligen ger några viktiga men underutvecklade frågor. | För en fullständig genomgång av personens Re-ID-metoder hänvisas den intresserade läsaren till REF. | 13,599,403 | Person Re-identification: Past, Present and Future | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,154 |
Abstract-En smart stad använder informationsteknik för att integrera och hantera fysiska, sociala och företagsinfrastrukturer för att erbjuda bättre tjänster till sina invånare samtidigt som man säkerställer ett effektivt och optimalt utnyttjande av tillgängliga resurser. Med spridning av teknik som Internet of Things (IoT), cloud computing och sammankopplade nätverk kan smarta städer leverera innovativa lösningar och mer direkt interaktion och samarbete mellan medborgare och lokala myndigheter. Trots ett antal potentiella fördelar innebär digitala störningar många utmaningar i samband med informationssäkerhet och integritet. I detta dokument föreslås en säkerhetsram som integrerar blockchain-tekniken med smarta enheter för att tillhandahålla en säker kommunikationsplattform i en smart stad. | Biswas och Muthukkumarasamy REF föreslog en säkerhetsram som integrerar blockchain-teknik med smarta enheter för att tillhandahålla en säker kommunikationsplattform för smarta städer. | 12,016,052 | Securing Smart Cities Using Blockchain Technology | {'venue': '2016 IEEE 18th International Conference on High Performance Computing and Communications; IEEE 14th International Conference on Smart City; IEEE 2nd International Conference on Data Science and Systems (HPCC/SmartCity/DSS)', 'journal': '2016 IEEE 18th International Conference on High Performance Computing and Communications; IEEE 14th International Conference on Smart City; IEEE 2nd International Conference on Data Science and Systems (HPCC/SmartCity/DSS)', 'mag_field_of_study': ['Computer Science']} | 6,155 |
Målet med papperet är att utforma sekventiella strategier som leder till effektiv optimering av en okänd funktion under det enda antagandet att det har en ändlig Lipschitz konstant. Vi identifierar först tillräckliga villkor för konsekvensen av generiska sekventiella algoritmer och formulerar den förväntade minimax-hastigheten för deras prestanda. Vi introducerar och analyserar en första algoritm som kallas LIPO som antar Lipschitz konstant att vara känd. Samstämmighet, minimax priser för LIPO bevisas, samt snabba priser under en ytterligare Hölder liknande villkor. En adaptiv version av LIPO introduceras också för den mer realistiska installationen där Lipschitzkonstanten är okänd och måste uppskattas tillsammans med optimeringen. Liknande teoretiska garantier visas för adaptiv LIPO algoritm och en numerisk bedömning ges i slutet av dokumentet för att illustrera potentialen i denna strategi med avseende på state-of-the-art metoder över typiska referensproblem för global optimering. | I en nyligen publicerad artikel studerade REF en variant av Piyavskii-Shubert-algoritmen LIPO. | 22,986,509 | Global optimization of Lipschitz functions | {'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,156 |
Abstrakt. Vi anser att involverbara beräkningssystem är uppbyggda som hierarkier av involverbara komponenter, där en involverbar komponent är en inkapsling av en tillsynskomponent och dess övervakare. Här utökar vi vårt tidigare arbete med en revisionsbaserad logisk modelleringsram för sådana system för att införliva program inom varje komponent. Vi beskriver mekanismer för att kombinera program, eventuellt på olika språk, från separata komponenter och skissera en operationell semantik för programmerade utvecklingsbara system. Vi visar hur tillsynskomponenter utökar run-time kontrollörer/skärmar med kapacitet för diagnos och förändring. Vi illustrerar den logiska modellen med hjälp av ett exempel på en automatiserad bankkassör. | I REF beskrivs en mekanism för att kombinera program från separata komponenter och en operationell semantik för programmerade utvecklingsbara system. | 15,145,307 | From Runtime Verification to Evolvable Systems | {'venue': 'RV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,157 |
Abstract-Problemet att uppskatta den dynamiska riktningen för ankomsten av långt fältsignaler som påverkar en enhetlig linjär array, med ömsesidiga kopplingseffekter, behandlas. I detta arbete föreslås två nya metoder som kan ge korrekta lösningar, bland annat i sluteldsregionerna i matrisen. För det första utvecklas ett Bayesian compressive sensing Kalman filter, som står för de förutsagda beräknade signalerna snarare än att använda den traditionella glest tidigare. Den bakre sannolikhetstäthetsfunktionen hos de mottagna källsignalerna och uttrycket för den relaterade marginella sannolikhetsfunktionen härleds teoretiskt. Därefter utvecklas en Gibbs provtagningsbaserad metod med indikatorvariabler i det glesa förflutna. Detta gör det möjligt att explicit tillämpa sparsamhet på olika sätt, även när en vinkel är för långt från den tidigare uppskattningen. De föreslagna tillvägagångssätten valideras och utvärderas i olika testscenarier och jämförs med den traditionella relevanta vektorbaserade metoden. En förbättrad noggrannhet i fråga om genomsnittliga kvadratfelvärden på roten uppnås (upp till 73,39 % för den modifierade relevansen för vektormaskinbaserad metod och 86,36 % för Gibbs provtagningsbaserad metod). De föreslagna tillvägagångssätten visar sig vara särskilt användbara för uppskattning av ankomstriktningen när ankomstvinkeln rör sig in i matrisens ändeldsområde. | I REF gav författarna en uppskattning för ankomstriktningen baserad på Bayesian compressive sensation och gav ett Kalman filter för att analysera signalerna. | 6,859,715 | Bayesian Compressive Sensing Approaches for Direction of Arrival Estimation with Mutual Coupling Effects | {'venue': 'IEEE Transactions on Antennas and Propagation', 'journal': 'IEEE Transactions on Antennas and Propagation', 'mag_field_of_study': ['Physics', 'Computer Science', 'Mathematics']} | 6,158 |
Tidigare CNN-baserade video super-upplösning metoder måste anpassa flera ramar till referensen. I detta dokument visar vi att en lämplig ramanpassning och motionsersättning är avgörande för att uppnå resultat av hög kvalitet. Vi föreslår därför ett "sub-pixel motion kompensation" (SPMC) skikt i ett CNN-ramverk. Analys och experiment visar lämpligheten av detta lager i video SR. Det slutliga skalbara CNN-ramverket, end-to-end, innehåller effektivt SPMC-skiktet och säkrar flera ramar för att avslöja bilddetaljer. Vår implementering kan generera visuellt och kvantitativt högkvalitativa resultat, överlägsna aktuella state-of-the-arts, utan behov av parameterstämning. | Senast, Sub-Pixel Motion Kompensation (SPMC) skikt har föreslagits i REF för video super-upplösning. | 3,193,713 | Detail-Revealing Deep Video Super-Resolution | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 6,159 |
Vi presenterar en teknik för att kombinera ljudsignal-baserad musik likhet med web-baserad musikalisk artist likhet för att påskynda uppgiften att automatisk spellista generation. Vi visar tillämpligheten av vår föreslagna metod genom att utöka ett nyligen publicerat gränssnitt för musikspelare som drar nytta av intelligent strukturering av ljudsamlingar. Medan den ursprungliga metoden innebär beräkning av likheter mellan varje par låtar i en samling, vi införlivar webbaserade data för att minska antalet nödvändiga likhetsberäkningar. Mer exakt utnyttjar vi konstnären likhet bestäms automatiskt med hjälp av webbsökning för att undvika likhetsberäkning mellan spår av olikartade och / eller orelaterade konstnärer. Vi utvärderar vår accelerationsteknik på två ljudsamlingar med olika egenskaper. Det visar sig att den föreslagna kombinationen av ljud- och textbaserad likhet inte bara minskar antalet nödvändiga beräkningar avsevärt utan också ger bättre resultat, när det gäller musikalisk kvalitet, än den ursprungliga metoden baserad enbart på ljuddata. Dessutom genomförde vi en liten användarstudie som ytterligare bekräftar kvaliteten på de resulterande spellistorna. | Detta tillvägagångssätt utvidgas i REF genom att man integrerar konstnärslikheter som beräknas på grundval av webbaserade data. | 10,797,271 | Combining audio-based similarity with web-based data to accelerate automatic music playlist generation | {'venue': "MIR '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,160 |
Överdriven energiförbrukning betraktas allmänt som ett stort hinder för utformningen av framtida mikroprocessorer. Med den fortsatta nedskalning av tröskelspänningar, den ström som förbrukas på grund av läckande minnesceller i on-chip caches kommer att utgöra en betydande del av processorns effektbudget. Detta arbete fokuserar på att minska den läckageenergi som förbrukas i instruktionscachen med hjälp av en kompilatorriktad metod. Vi presenterar och analyserar två kompilatorbaserade strategier som kallas konservativa och optimistiska. Det konservativa tillvägagångssättet sätter inte en cachelinje i ett lågt läckageläge förrän det är säkert att den nuvarande instruktionen i det är död. Å andra sidan placerar den optimistiska metoden en cachelinje i lågt läckageläge om den upptäcker att nästa tillgång till instruktionen kommer att ske först efter en lång lucka. Vi utvärderar olika optimeringsalternativ genom att kombinera kompilatorstrategier med tillståndsbevarande och tillståndsförstörande läckagekontrollmekanismer. Vi utvärderar också känsligheten för dessa optimeringar till olika högnivåkompilatorers transformationer, energiparametrar och mjuka fel. | Vissa andra kompilatorer tekniker som REF utnyttja lokaliseringen av instruktioner i instruktionsminnet för att minska läckage energiförbrukning. | 9,935,868 | Reducing instruction cache energy consumption using a compiler-based strategy | {'venue': 'TACO', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,161 |
ABSTRACT Självorganiserande nätverk agerar självständigt för att uppnå bästa möjliga prestanda. För att uppnå detta krävs en känslig balans mellan olika och ofta motstridiga tjänstekvalitetskrav. Att hitta den optimala lösningen blir vanligtvis ett nonolynomiskt svårt problem, eftersom nätverksstorleken ökar i fråga om antalet noder. Dessutom leder användningen av användardefinierade allmännyttiga funktioner för aggregering av de olika objektiva funktionerna ofta till suboptimala lösningar. Å andra sidan kan Pareto optimalitet förena de olika designmålen genom att ge ett element av elitism. Även om det finns en uppsjö av bioinspirerade algoritmer som försöker ta itu med detta optimeringsproblem, de ofta misslyckas med att generera alla de punkter som utgör den optimala Pareto front. Som ett botemedel föreslår vi en optimal multiobjektiv kvantassisterad algoritm, nämligen den icke-dominerade kvantoptimeringsalgoritmen (NDQO), som utvärderar de legitima rutterna genom att använda konceptet Pareto optimalitet vid en minskad komplexitet. Vi jämför sedan NDQO-algoritmens prestanda med de senaste evolutionära algoritmerna, vilket visar att NDQO-algoritmen uppnår en nästan optimal prestanda. Dessutom härleder vi analytiskt de övre och nedre gränserna för NDQO-algoritmernas komplexitet, som är av ordningen O(N ) och O(N ε N ) i det bästa respektive värsta scenariot. Detta motsvarar en betydande komplexitetsminskning av NDQO från ordningen för O(N 2 ) som införts genom brute-force-metoden. | När det gäller det multi-objektiva routing problemet, så vitt författarna vet, finns det bara en enda omfattande studie av Alanis et al. REF som drar nytta av QP, där den så kallade icke-dominerade kvantoptimeringsalgoritmen (NDQO) har införts för att gemensamt optimera överföringsrutten i termer av den uppnåeliga BER, den totala effektförlusten och den slutliga fördröjningen med tillämpning av Pareto Optimality för att utvärdera rutterna, samtidigt som det medför en komplexitet i ordningen för O(N ) och O(N ε N ) i det bästa respektive det värsta scenariot. | 31,333,889 | Quantum-Assisted Routing Optimization for Self-Organizing Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,162 |
Vi presenterar diffusions-konvolutionella neurala nätverk (DCNN), en ny modell för grafstrukturerade data. Genom införandet av en diffusion-konvolutionsoperation visar vi hur diffusion-baserade representationer kan läras från grafstrukturerade data och användas som en effektiv grund för nodklassificering. DCNNs har flera attraktiva egenskaper, inklusive en latent representation för grafiska data som är invariant under isomorfism, samt polynom-tid förutsägelse och lärande som kan representeras som tensor verksamhet och effektivt implementeras på GPU. Genom flera experiment med verkliga strukturerade datauppsättningar visar vi att DCNN kan överträffa probabilistiska relationsmodeller och kernel-on-graph-metoder vid klassificering av relationell nod. | Atwood m.fl. I Ref föreslogs de diffusionskonvolutionella neurala nätverken (DCNN). | 15,483,870 | Diffusion-Convolutional Neural Networks | {'venue': 'NIPS 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,163 |
I detta dokument presenteras ett nytt tillvägagångssätt för att optimera kommunikationen av parallella dataprogram. Våra tekniker är baserade på enkelriktade bit-vektordata ow analyser som möjliggör vektorisering, sammansmältning och aggregering kommunikation, och överlappande kommunikation med beräkning både inom och över loop bon. Tidigare tekniker är baserade på xed kommunikationsoptimering strategier vars kvalitet är mycket känslig för förändringar av maskiner och problemstorlekar. Vår algoritm är ny genom att vi noggrant undersöker handel mellan att förbättra kommunikationslatensen att dölja och minska antalet och volymen av meddelanden genom att systematiskt utvärdera en rimlig uppsättning lovande kommunikationsplaceringar för ett givet program som täcker flera (eventuellt sammanhängande) kommunikation vägledande pro t motiv. Vi använder P 3 T, en toppmodern prestandaskattare, för att säkerställa kommunikation bu er-safety och för att få den bästa kommunikationsplaceringen av alla skapade. Genom att använda en noggrann prestandaskattare öppnas förutsättningar för mer aggressiva kommunikationsoptimeringsmöjligheter som noggrant undersöker prestandavinster och handel mellan tillämpliga optimeringsstrategier som inte kan uppnås med någon befintlig metod. De första resultaten visar att vår metod innebär en betydande minskning av kommunikationskostnaderna och visar hur effektiv denna analys är när det gäller att förbättra programmens prestanda. | Den kommunikationsoptimering metod som presenteras av Fahringer och Mehofer REF använder kod motion samt för att försöka hitta en bra kompromiss mellan att förbättra kommunikations latency dölja och minska antalet meddelanden. | 9,312,576 | Buffer-Safe and Cost-Driven Communication Optimization | {'venue': 'Journal of Parallel and Distributed Computing, Academic Press', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,164 |
0000‐0003‐0587‐9643], Zoltan-Csaba Marton 1[0000‐0002‐3035‐493X], Maximilian Durner 1[0000‐0001‐8885‐5334], Manuel Brucker 1[0000‐0001‐6370‐2753], Rudolph Triebel 1,2[0000‐0002-7975‐036X] Sammanfattning. Vi föreslår en realtids RGB-baserad pipeline för objektdetektering och 6D-pose uppskattning. Vår nya 3D-orienteringsuppskattning baseras på en variant av Denoising Autoencoder som är tränad på simulerade vyer av en 3D-modell med domän randomisering. Denna så kallade Augmented Autoencoder har flera fördelar jämfört med befintliga metoder: Det kräver inte verkliga, pose-annoterade träningsdata, generaliserar till olika testsensorer och i sig hanterar objekt och visa symmetrier. Istället för att lära sig en explicit kartläggning från indatabilder till objektposer, ger det en implicit representation av objektorienteringar som definieras av prover i ett latent utrymme. Experiment på datauppsättningarna T-LESS och LineMOD visar att vår metod överträffar liknande modellbaserade metoder och konkurrerar med toppmoderna metoder som kräver verkliga pose-annoterade bilder. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Nyligen föreslog REF en självövervakad Augmented Autoencoder som tränar på CAD-modeller och tar bort behovet av pose-annoterade träningsdata. | 52,953,916 | Implicit 3D Orientation Learning for 6D Object Detection from RGB Images | {'venue': 'European Conference on Computer Vision (ECCV), 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,165 |
Abstrakt. Även om förverkligandet av den semantiska webben, som Tim Berners-Lee en gång föreställde sig, fortfarande befinner sig i en avlägsen framtid, har Datawebben redan blivit verklighet. Miljarder RDF uttalanden på Internet, fakta om en mängd olika domäner, är redo att användas av semantiska program. Vissa av dessa tillämpningar, dock, är avgörande beroende av tillgången på expressiva scheman som lämpar sig för logiska slutsatser som ger icke-triviala slutsatser. I detta dokument presenterar vi en statistisk metod för induktion av expressiva scheman från stora RDF-databaser. Vi beskriver i detalj genomförandet av detta tillvägagångssätt och rapporterar om en utvärdering som vi genomfört med hjälp av flera datamängder, inklusive DBpedia. | I REF presenteras en statistisk metod för induktion av expressiva scheman för RDF-data. | 115,348 | Statistical Schema Induction | {'venue': 'In Proceedings of the 8th Extended Semantic Web Conference: Linked Open Data Track', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,166 |
Trådlösa ad hoc-sensornätverk har framträtt som ett intressant och viktigt forskningsområde under de senaste åren. De tillämpningar som förutses för sådana nätverk kräver samarbete utförande av en distribuerad uppgift bland en stor uppsättning sensornoder. Detta realiseras genom att utbyta meddelanden som är tidsstämplade med hjälp av lokala klockor på noderna. Därför blir tidssynkronisering en oumbärlig infrastruktur i sådana system. I åratal har protokoll som NTP hållit klockorna i nätverksanslutna system i perfekt synkronisering. Denna nya typ av nätverk har dock en stor täthet av noder och mycket begränsade energiresurser vid varje nod, vilket leder till skalbarhetskrav samtidigt som de resurser som kan användas för att uppnå dem begränsas. En ny metod för tidssynkronisering behövs för sensornätverk. I detta dokument presenterar vi Timing-sync Protocol for Sensor Networks (TPSN) som syftar till att tillhandahålla nätverkstäckande tidssynkronisering i ett sensornätverk. Algoritmen fungerar i två steg. I det första steget etableras en hierarkisk struktur i nätverket och sedan utförs en parvis synkronisering längs kanterna på denna struktur för att etablera en global tidsskala i hela nätverket. Till slut synkroniserar alla noder i nätverket sina klockor till en referensnod. Vi implementerar vår algoritm på Berkeley Motes och visar att det kan synkronisera ett par angränsande Motes till en genomsnittlig noggrannhet på mindre än 20μs. Vi hävdar att TPSN ungefär ger en 2x bättre prestanda jämfört med Reference Broadcast Synkronization (RBS) och verifiera detta genom att genomföra RBS på motes. Vi visar också prestandan hos TPSN över små multihop nätverk av Motes och använder simuleringar för att verifiera dess noggrannhet över storskaliga nätverk. Vi visar att synkroniseringsnoggrannheten inte försämras avsevärt med ökningen av antalet noder som används, vilket gör TPSN helt skalbar. | Timing-Sync Protocol för Sensor Networks (TPSN) REF synkroniserar klockan med avsändarens mottagarsynkronisering. | 22,550,674 | Timing-sync protocol for sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,167 |
Syftet med denna artikel är att granska de teoretiska, empiriska och praktiska implikationer som har att göra med hur sexualförbrytare mot barn fungerar. För det första presenteras det rationella valperspektivet inom kriminologin. För det andra presenteras också beskrivande studier som särskilt syftar till att ge information om hur sexualförbrytare mot barn fungerar. Detta följs av forskning som undersöker kopplingarna mellan sexualförbrytares metoder mot barn och olika faktorer som offrets egenskaper. För det tredje diskuteras brottsoffrens behandling, liksom konsekvenserna för förebyggande av situationer när det gäller modus operandi, i syfte att lyfta fram deras respektive potential för att förebygga sexuella övergrepp mot barn. | REF har granskat de teoretiska, empiriska och praktiska konsekvenserna av hur sexualförbrytare mot barn fungerar. | 14,411,329 | Examining the modus operandi of sexual offenders against children and its practical implications | {'venue': None, 'journal': 'Aggression and Violent Behavior', 'mag_field_of_study': ['Psychology']} | 6,168 |
Vi presenterar en klass av effektiva modeller som heter MobileNets för mobila och inbyggda visionsapplikationer. MobileNets är baserade på en strömlinjeformad arkitektur som använder djupvis separerbara konvolutioner för att bygga lätta djupa neurala nätverk. Vi introducerar två enkla globala hyperparametrar som effektivt växlar mellan latens och noggrannhet. Dessa hyper-parametrar gör det möjligt för modellbyggaren att välja rätt storlek modell för deras tillämpning baserat på begränsningarna i problemet. Vi presenterar omfattande experiment på resurs och noggrannhet kompromisser och visar stark prestanda jämfört med andra populära modeller på ImageNet klassificering. Vi visar därefter effektiviteten av MobileNets över ett brett spektrum av applikationer och användningsfall inklusive objektdetektion, finkornig klassificering, ansiktsattribut och storskalig geo-localization. | MobileNet REF är en klass av effektiva modeller för mobila och inbyggda visionsapplikationer. | 12,670,695 | MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,169 |
Oday's Web fungerar främst som ett globalt utrymme för att presentera information för mänsklig konsumtion. Den saknar dock en mekanism för att tillhandahålla information som maskiner kan förstå eller bearbeta, så att de kan kommunicera och samarbeta. Så, programvaruingenjörer måste arbeta hårt för att utveckla intelligenta tjänster och automatiserade mjukvaruagenter eftersom de först måste komma överens om datas syntax och semantik innan hårdkoda dem i sina tillämpningar. Dessutom kräver förändringar av syntax och semantik dyra tillämpningsändringar. Vi behöver en semantisk webb 1 med en väletablerad mekanism för att uttrycka information som är maskintolkbar och möjliggör syntaktisk och semantisk interoperabilitet mellan webbapplikationer. Även om XML (eXtensible Markup Language) och RDF (Resource Description Framework) erbjuder grunder för syntaktisk och semantisk interoperabilitet, kan deras mekanismer inte uppnå detta mål. XML i sig låter samma semantiska enhet uttryckas i mer än en syntaktisk struktur. XML-, RDF- och RDF-schemakombinationer kan lösa detta problem med flera strukturer, men de skulle fortfarande sakna uttryckskraft. Till exempel kunde axiom, villkor och begränsningar inte anges. 2 OL 3 (Ontology Inference Layer) och DAML+OIL 4 (DARPA Agent Markup Language + OLIL) är två nyligen förbättrade rambaserade språk. De utökar RDF Schema med rikare uppsättningar av modellering primitiver för representation av booleska uttryck, axiom och egendom restriktioner. Semantiken av dessa språk innebär att kartlägga sådan utökad RDF uttalanden om motsvarande representationer i en viss logisk teori-till exempel på första ordningen logik meningar-följt av motsvarande bestämning av deras semantik. OLIL:s semantik bygger på en översättning till beskrivningslogiken SHIQ, 5 medan DAML+OIL:s baseras på KIF (Kunskapsutbytesformat) 6 -ett språk utformat för kunskapsutbyte och baserat på första ordningens predikatlogik. Deras huvudsakliga slutsatser är klasskonsistens och underkonsumtionskontroll med andra resonemangstjänster, t.ex. underkonsumtion av frågor och svar på frågor över klasser och instanser, omformulerat i form av underförbrukningskontroll. Alla dessa tillägg kräver ytterligare formalismer för XML och RDF för att definiera deras semantik eller specificera axiom och begränsningar. Vi behöver ett XML-baserat språk med en enda formalism som uppfyller alla krav på den semantiska webben. Dess avsedda semantik bör vara exakt och formellt definierbar under dess enda formalism, och den bör stödja allmänna slutledningsmekanismer. XML Deklarativ Beskrivning 7 syftar till att fylla detta behov. En webbresurss semantik. Den använder XML som sin blotta syntax och förbättrar XML uttryckskraft genom att använda Deklarativ Beskrivningsteori. 8 En beskrivning i XDD är en uppsättning vanliga XML-element, utökade XML-element med variabler, och XML-elementens relationer i termer av XML-klausuler. Ett vanligt XML-element betecknar en semantisk enhet och är ett surrogat för ett informationsobjekt i den verkliga applikationsdomänen. Ett utökat XML-element representerar implicit information eller en uppsättning semantiska enheter. Klausuler uttrycker regler, villkorade relationer, integritetsbegränsningar och ontologiska axiom. Vi definierar de exakta och formella semantiken i en XDD-beskrivning som en uppsättning vanliga XML-element, utan att använda andra formalismer. Viktiga axiom som saknas i XML och RDF men uttrycks i XDD inkluderar symmetri, sammansättning-av, och omvänt relationer. Som ett exempel på invers-relation axiom, betrakta XML-klausulerna A och B i figur 1a. De modellerar Skapar- och Publikationsegenskapernas inverser som antas av någon särskild domän. Figur 1b ger sedan ett exempel på att representera en RDF uttalande C, "En skapare av ett dokument med titeln 'XDD språk' är John." Semantiken i en XDD beskrivning, som innehåller klausulerna A, B och C, kommer också att innehålla en RDF uttalande, "En publikation av John är "XDD språk" (Figur 1c ), vilket möjliggör omvänd slutsats av sådan implicit information. Detta axiom kan naturligtvis inte representeras i RDF. XDD kan direkt representera alla XML-baserade programmarkup-språk. Det kan också helt enkelt representera XML-tillämpningar som tillhandahåller gemensamma konventioner för semantik, syntax och strukturer för vissa specifika domäner. Utöver RDF omfattar dessa domäner följande: Figur 2 skildrar XDD:s roll i att modellera den semantiska webben. Unicode-lagret visar bara utbytt data som en ström av Unicode-tecken. Därefter skapar XML-lagret ett XML-dokument från strömmen. Vanligtvis kan det erhållna dokumentet bara vara ett dokument, ett XML-schema, ett RDF-dokument, ett RDF-schema eller en kombination av dessa, eftersom de på liknande sätt är kodade i XML-syntax. Dokumentets semantik bestäms formellt i XDD-lagret, vilket ger en uppsättning dataobjekt som kodas i Computer.org/intelligent 55 <rdf:Beskrivning om=$S:personP> <rdf:type resource="#Person"/> <Publication resource=$S:documentD/> </rdf:Beskrivning> <rdf:Beskrivning om=$S:documentD> <rdf:type resource="#E-Document"/> <Creator resource=$S:personP/> $E:D_properties </rdf:Beskrivning>. <rdf:Beskrivning ca=$S:documentD> <rdf:type resource="#E-dokument"/> <Creator resource=$S:personP/> </rdf:Beskrivning> <rdf:Beskrivning ca=$S:personP> <rdf:type resource="#Person"/> <Publication resource=$S:documentD/> $E:P_properties </rdf:Beskrivning>. <rdf:Beskrivning ca="http://xdd.org"> <rdf:type resource="#E-dokument"/> <Title>XDD Language </Title> <Creator resource="http://smith.com/john"/> </rdf:Beskrivning> <rdf:Beskrivning ca="http://xdd.org"> <rdf:type resource="#E-docment"/> <rdf:type resource="#Person"/> <Title>XDD Language </Title> <Publication resource="http://xdd.org"/> <Creator resource="http://smith.com/john"/> </rdf:Beskrivning> </rdf:Beskrivning> % Om en skapare av ett e-dokument D är % en resurs P, är det känt att en sådan %-resurs P måste vara ett exempel på en klassperson och en av P-publikations"http://s som e-org % är en resursen. deras respektive XML-tillämpningar i dataobjektskiktet. Dessa objekt kan uttryckligen beskrivas i dokumentet eller härledas från samband, regler eller axiom i dokumentet. I applikationslagret är sådana objekt surrogat av verkliga objekt i en viss applikationsdomän. Variabel momentiation definieras av grundläggande specialiseringar, som var och en har formen (v, w) där v anger namnet på variabeln som ska specialiseras och w specialiseringsvärdet. Till exempel ($N:name1, $N:name2), ($S:url, "http://smith.com") och ($E: Properties, ($E:p1, $E:p2)) är grundläggande specialiseringar som omnämner N-variabeln $N:name1 som $N:name2, omedelbart S-variabeln $S:url i strängen "http://smith.com/", och utöka E-variabeln $E: Properties till sekvensen av E-variables $E:p1 och $E:p2. Grundläggande specialiseringar finns i fyra typer: • byta namn på variabler, • expandera en P-eller en E-variabel i en sekvens av variabler av sina respektive typer, Computer.org/intelligent T h e S e m a nt i c W e b Let A, G och S vara uppsättningar av objekt, markobjekt, och specialiseringar, respektive μ vara en kartläggning från S till partiell_map(A) (uppsättningen av alla partiella kartläggningar på A). Den fyrdubbla till A, G, S, är ett specialiseringssystem under villkoren 1. S 1, s 2 påsen, s påsen: μ(s) = μ(s 1 ) ° μ(s 2 ); 2. tills S, AA : μ(s)a) = a; och 3. G till A, där μ(s 1 ) °μ(s 2 ) är den sammansatta kartläggningen av de partiella kartläggningarna μ(s 1 ) och μ(s 2 ). Intuitivt betyder förhållandena 1 till 3 1. För alla specialiseringar s 1 och s 2, Det finns en specialisering s sådan att motsvarande partiell kartläggning av s är sammansättningen av de två kartläggningar som motsvarar s 1 och s 2, 2. Det finns en specialisering som inte ändrar några objekt (identitetsspecialisering), och 3. Markföremål är objekt. När μ är klar från sammanhanget, för påsen, skriver vi μ( ska)(a) helt enkelt som en. Om b finns sådan att a och a = b, sägs vara tillämplig på a, och a är specialiserat på b av. • ta bort P-, E- eller I-variabler, eller • omedelbart variabler till XML-uttryck eller komponenter i XML-uttryck som motsvarar variablernas typer. En sekvens av grundläggande specialiseringar är en specialisering. Datastrukturen för XML-uttryck kännetecknas av en matematisk abstraction Ε X = A X, G X, S X, μ X, kallas XML Specialization System (se tillhörande sidofältet), där • A X är uppsättningen av alla XML-uttryck, • G X är undergruppen av A X som omfattar alla grund XML-uttryck i A X, • S X är uppsättningen av alla specialiseringar som återspeglar datastrukturen av XML-uttryck i A X, och • μ X är specialiserings operatör, som bestämmer för varje specialisering s i S X förändringen av varje XML-uttryck i A X orsakas av s. Figur 3a illustrerar ett exempel på en icke-grundlig XML-uttryck a i A X. Figur 3b illustrerar en specialisering i S X, och tillämpningen av på en av operatören μ X för att få en grund XML uttryck g i G X (Figur 3c ). Det är g = μ X (på engelska)(a) eller, genom postfix-notation, g = a på engelska. Specialisering och ändrar icke-grunduttrycket a till markuttrycket g by | Databaser av RDF och DAML data samt deras frågor kan då exakt formuleras och manipuleras REF. | 18,390,185 | XML Declarative Description: A Language for the Semantic Web | {'venue': 'IEEE Intell. Syst.', 'journal': 'IEEE Intell. Syst.', 'mag_field_of_study': ['Computer Science']} | 6,170 |
Detta dokument beskriver våra resursbyggande resultat för en åtta veckor lång JHU Human Language Technology Center of Excellence Summer Camp for Applied Language Exploration (SCALE-2009) på semantiskt informerad maskinöversättning. I synnerhet beskriver vi uppbyggnaden av ett modalitetsanmärkningssystem, ett modalitetslexikon, och två automatiserade modalitetstaggers som byggdes med hjälp av lexikonet och annotationssystemet. Vårt notationssystem bygger på att identifiera tre komponenter i modalitet: en utlösare, ett mål och en innehavare. Vi beskriver hur vår modalitet lexikon producerades halvautomatiskt, expanderar från en första hand-vald lista av modalitet utlösa ord och fraser. Det resulterande utvidgade modalitetslexikonet görs tillgängligt för allmänheten. Vi visar att en tagger-en struktur-baserade tagger-resultat i precision runt 86% (beroende på genre) för taggning av en standard LDC data uppsättning. I en maskinöversättning ansökan, med hjälp av den strukturbaserade tagger för att kommentera engelska metoder på en engelsk-Urdu utbildning corpus förbättrade översättningen kvalitet poäng för Urdu med 0,3 Bleu poäng i ansiktet på glesa träningsdata. | Baker m.fl. REF testade två regelbaserade modalitetstaggers som identifierar både modal trigger och dess mål och uppnår resultat med 86 % precision för en standarduppsättning LDC-data. | 8,740,112 | A Modality Lexicon and its use in Automatic Tagging | {'venue': "In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), pages 1402-1407, Valletta, Malta, May 2010. European Language Resources Association", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,171 |
Vi introducerar en ram för okonstruerad 3D-mänsklig överkropp pos estimering från flera kameravyer i komplex miljö. Dess främsta nyhet ligger i integrationen av tre komponenter: en ram utgör återhämtning, tidsintegrering och modellstrukturanpassning. Single-frame pose recovery består av en hypotes generation stadium, där kandidat 3D poser genereras, baserat på probabilistisk hierarkisk form matchning i varje kameravy. I det efterföljande hypotesverifieringssteget återprojiceras kandidaten 3D-poser i de andra kameravyerna och rankas enligt en multi-vysannolikhetsåtgärd. Temporal integration består av att beräkna K-bästa banor som kombinerar en rörelse modell och observationer i en Viterbi-stil maximal-likelihood tillvägagångssätt. Poses som ligger på de bästa banorna används för att generera och anpassa en texturmodell, vilket i sin tur berikar den form sannolikhetsmått som används för pose återvinning. De flera bana hypoteser används för att generera pose förutsägelser, öka 3D pose kandidater genereras vid nästa steg. Vi visar att vår strategi överträffar den senaste tekniken i experiment med stora och utmanande verkliga data från en utomhusmiljö. | Ref integrerar en ram pose återställning med K-bästa banor och modell textur anpassning. | 14,749,950 | Multi-view 3D Human Pose Estimation in Complex Environment | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 6,172 |
Enkelgängad prestanda, tillförlitlighet och effekteffektivitet är viktiga designutmaningar för framtida multikärnsystem. Även om punktlösningar har föreslagits för att ta itu med dessa frågor, är en mer grundläggande förändring av strukturen av multicore system nödvändig för att sömlöst bekämpa dessa utmaningar. I detta syfte föreslår detta dokument CoreGenesis, ett dynamiskt adaptivt multiprocessortyg som suddar ut enskilda kärngränser, och uppmuntrar resursdelning mellan kärnor för prestanda, feltolerans och anpassad bearbetning. Som ett uttryck för denna vision innehåller dokumentet dessutom detaljer om en enhetlig lösning för prestanda-tillförlitlighet som kan montera processorer med variabel bredd från ett nätverk av (potentiellt trasiga) resurser på rörledningsnivå. Denna konstruktion bygger på sammankopplingsflexibilitet, mikroarchitectural innovationer, och kompilator riktad instruktion styrning, att slå samman pipeline resurser för hög enkelgängad prestanda. Samma flexibilitet gör det möjligt att styra runt trasiga komponenter och uppnå isolering av defekter på undernivå. Tillsammans, den resulterande tyget består av en pool av pipeline steg-nivå resurser som kan fluidly allokeras för att accelerera enkelgänga prestanda, dataflöde, eller tolerera misslyckanden. | Faktum är att trenden mot ökad resursdelning mellan kärnorna representeras av Gupta et al. REF som uppmuntrar resursdelning inom framtida multicores för prestanda, feltolerans och anpassad bearbetning. | 14,287,607 | Erasing Core Boundaries for Robust and Configurable Performance | {'venue': '2010 43rd Annual IEEE/ACM International Symposium on Microarchitecture', 'journal': '2010 43rd Annual IEEE/ACM International Symposium on Microarchitecture', 'mag_field_of_study': ['Computer Science']} | 6,173 |
Abstract-Vi föreslår en allmän arkitektur för åtgärder (mimicking) och program (gesur) nivå visuell imitation. Åtgärdsnivå imitation omfattar två moduler. Utgångspunkten Transformation (VPT) utför en "rotation" för att anpassa demonstratorns kropp till inlärarens. Visuo-Motor Map (VMM) kartlägger denna visuella information till motordata. För programnivå (gesur) imitation, finns det en ytterligare modul som gör det möjligt för systemet att känna igen och generera sin egen tolkning av observerade gester för att producera liknande gester / mål i ett senare skede. Förutom det holistiska synsättet på problemet skiljer sig vår strategi från det traditionella arbetet i i) användningen av motorisk information för gestigenkänning; ii) användning av sammanhang (t.ex. objektförmågor) för att fokusera uppmärksamheten på igenkänningssystemet och minska tvetydigheter, och iii) använda ikoniska bildrepresentationer för handen, i motsats till att montera kinematiska modeller till videosekvensen. Detta tillvägagångssätt motiveras av upptäckten av visuomotoriska neuroner i F5-området i den macaque hjärnan som tyder på att gestigenkänning/imitering utförs i motoriska termer (mirror) och förlitar sig på användning av objektförmågor (kanoniska) för att hantera tvetydiga handlingar. Våra resultat visar att detta tillvägagångssätt kan överträffa mer konventionella (t.ex. rent visuella) metoder. | Lopes m.fl. REF använder sammanhang från objekt när det gäller möjligheten att få råd att fokusera uppmärksamheten på deras system för erkännande. | 17,648,373 | Visual learning by imitation with motor representations | {'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,174 |
De avancerade sekvensmärkningssystemen kräver traditionellt stora mängder uppgiftsspecifik kunskap i form av handgjorda funktioner och förbehandling av data. I detta dokument introducerar vi en ny neutral nätverksarkitektur som automatiskt drar nytta av både ord- och teckennivåer genom att använda kombination av dubbelriktad LSTM, CNN och CRF. Vårt system är verkligen end-to-end, kräver ingen funktionsteknik eller förbehandling av data, vilket gör det tillämpligt på ett brett spektrum av sekvensmärkning uppgifter. Vi utvärderar vårt system på två datauppsättningar för två sekvensmärkningsuppgifter -Penn Treebank WSJ corpus för del-of-speech-märkning (POS) och CoNLL 2003 corpus för namngiven enhetsigenkänning (NER). Vi får toppmodern prestanda på båda datauppsättningarna -97,55% noggrannhet för POS-märkning och 91,21% F1 för NER. | REF använder CNN snarare än LSTM för att komponera tecken i en Bi-LSTM-CRF, vilket ger toppmodern prestanda på del-av-tal taggning och CoNLL NER utan lexikon. | 10,489,017 | End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,175 |
Den nyligen införda teorin om komprimerad sensing (CS) möjliggör rekonstruktion eller approximation av glesa eller kompresserbara signaler från en liten uppsättning osammanhängande projektioner; ofta kan antalet projektioner vara mycket mindre än antalet Nyquist-frekvensprover. I detta dokument visar vi att CS-ramverket är information som är skalbar till ett brett spektrum av statistiska inferensuppgifter. I synnerhet visar vi hur CS-principer kan lösa signaldetekteringsproblem vid inkonsekventa mätningar utan att någonsin rekonstruera signalerna i fråga. Vi studerar specifikt fallet med signaldetektering i stark inferens och buller och föreslår en inkonsekvent detektion och uppskattning Algoritm (IDEA) baserad på Matching Pursuit. Antalet mätningar och beräkningar som krävs för en framgångsrik upptäckt med hjälp av IDEA är betydligt lägre än det som krävs för en lyckad återuppbyggnad. Simuleringar visar att IDEA är mycket motståndskraftig mot stark interferens, additivt buller och mätkvantisering. Vid kombination med slumpmässiga mätningar är IDEA tillämpligt på ett brett spektrum av olika signalklasser. | De visade att CS ramverket är information skalbar till ett mycket bredare spektrum av statistiska inferens uppgifter REF. | 8,000,636 | Sparse Signal Detection from Incoherent Projections | {'venue': '2006 IEEE International Conference on Acoustics Speech and Signal Processing Proceedings', 'journal': '2006 IEEE International Conference on Acoustics Speech and Signal Processing Proceedings', 'mag_field_of_study': ['Computer Science']} | 6,176 |
Populära forskningsområden som autonom körning och förstärkt verklighet har förnyat intresset för bildbaserad kameralokalisering. I detta arbete tar vi upp uppgiften att förutsäga 6D-kameran från en enda RGB-bild i en given 3D-miljö. Med tillkomsten av neurala nätverk, tidigare verk har antingen lärt sig hela kameran lokaliseringsprocessen, eller flera komponenter i en kamera lokalisering pipeline. Vårt viktigaste bidrag är att visa och förklara att det räcker med att lära sig en enda komponent i denna rörledning. Denna komponent är ett fullständigt konvolutionellt neuralt nätverk för tätt regresserande så kallade scenkoordinater, som definierar korrespondensen mellan indatabilden och 3D-scenutrymmet. Det neurala nätverket är förberett för en ny end-to-end trainingable rörledning. Vårt system är effektivt, mycket exakt, robust i träning, och uppvisar enastående generalisering kapacitet. Det överskrider state-of-the-art konsekvent på inomhus och utomhus datauppsättningar. Intressant nog överträffar vår strategi befintliga tekniker även utan att använda en 3D-modell av scenen under utbildningen, eftersom nätverket kan upptäcka 3D scen geometri automatiskt, endast från en-vy begränsningar. | Brachmann och Rother REF förbättrar rörledningens initiering och olika poseoptimering för att uppnå toppmoderna resultat för omlokalisering av inomhuskamera från enstaka RGB-bilder. | 4,302,093 | Learning Less is More - 6D Camera Localization via 3D Surface Regression | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,177 |
I Bag-of-Words (BoW) baserad bildhämtning, SIFT visuellt ord har en låg diskriminerande kraft, så falska positiva matchningar förekommer allmänt. Förutom informationsförlusten under kvantiseringen är en annan orsak att SIFT-funktionen endast beskriver den lokala gradientfördelningen. För att ta itu med detta problem föreslås i detta dokument ett kopplat ramverk för multi-Index (c-MI) för att utföra funktionsfusion på indexeringsnivå. I grund och botten är kompletterande funktioner kopplade till ett flerdimensionellt inverterat index. Varje dimension av c-MI motsvarar en typ av funktion, och hämtningsprocessen röstar för bilder liknande i både SIFT och andra funktionsytor. Vi utnyttjar särskilt sammanslagningen av lokala färgdrag till c-MI. Medan precisionen i visuell matchning är kraftigt förbättrad, antar vi flera uppdrag för att förbättra återkallande. Det gemensamma samarbetet mellan SIFT och färgfunktioner minskar avsevärt effekten av falska positiva matchningar. Omfattande experiment på flera referensdatauppsättningar visar att c-MI förbättrar hämtningsnoggrannheten avsevärt, samtidigt som den konsumerar endast hälften av frågetiden jämfört med baslinjen. Viktigt är att vi visar att c-MI är ett bra komplement till många tidigare tekniker. Tillsammans med dessa metoder har vi fått en mAP på 85,8% och N-S poäng på 3,85 på Holidays och Ukbench dataset, respektive, som jämför gynnsamt med state-of-the-arts. | En kopplad multiindexmetod föreslogs i Reference Ref för att utnyttja funktionen fusion av lokal färgfunktion och SIFT-funktion där båda typerna av deskriptorer extraheras för alla nyckelpunkter. | 649,474 | Packing and Padding: Coupled Multi-index for Accurate Image Retrieval | {'venue': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2014 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 6,178 |
Abstract Pervasive serviceekosystem är ett nytt paradigm för design av kontextmedvetna system med anpassningsförmåga och självkännedom. En teoretisk och praktisk ram har föreslagits för att ta itu med dessa scenarier, ta primära inspirationer från naturliga ekosystem och jorda på två grundläggande abstraktioner: "live semantic annotations" (LSA), som är beskrivningar som lagras i infrastruktur noder och omslagsdata, kunskap, och aktiviteter av människor, anordningar och tjänster, och "eko-lagar", fungerar som system regler som utvecklar populationen av LSA som om de var molekyler som var föremål för kemiska-liknande reaktioner. I detta dokument strävar vi efter att fördjupa hur självorganisation kan injiceras i genomträngande tjänsteekosystem i termer Detta arbete har fått stöd av EU-FP7-FET Proactive-projektet SAPERE Self-aware Pervasive Service Ecosystems, enligt kontrakt nr 256873. av rumsliga strukturer och algoritmer för att stödja utformningen av sammanhangsmedvetna tillämpningar. I detta syfte utgår vi från en befintlig klassificering av självorganiseringsmönster, och visar systematiskt hur de kan stödjas i genomträngande tjänsteekosystem, och vara sammansatta för att skapa ett självorganiserande framväxande beteende. En paradigmisk crowd styre fallstudie används för att visa effektiviteten i vår strategi. Europaparlamentets och rådets förordning (EG) nr 45/2001 av den 18 december 2000 om skydd för enskilda då gemenskapsinstitutionerna och gemenskapsorganen behandlar personuppgifter och om den fria rörligheten för sådana uppgifter (EGT L 8, 12.1.2001, s. 1). | I REF har en ram för samordning av distribuerade agenser via miljölagar föreslagits. | 16,526,832 | Injecting Self-Organisation into Pervasive Service Ecosystems | {'venue': None, 'journal': 'Mobile Networks and Applications', 'mag_field_of_study': ['Computer Science']} | 6,179 |
Abstrakt. I många applikationer, t.ex. E-Passport och körkort, görs inskrivningen av ansiktsmallar med hjälp av synliga ljusbilder (VIS). Sådana bilder förvärvas normalt i kontrollerad miljö där belysningen är ungefär frontal. Autentisering sker dock i varierande ljusförhållanden. Att matcha ansikten i VIS-bilder tagna i olika ljusförhållanden är fortfarande en stor utmaning. En ny utveckling i nära infraröd (NIR) bildbaserad ansiktsigenkänning [1] har mycket väl övervunnit de svårigheter som uppstår till följd av ljusförändringar. Det kräver dock att inskrivning ansikte bilder förvärvas med NIR också. I detta dokument presenterar vi ett nytt problem, nämligen att matcha ett ansikte i en NIR-bild mot en i en VIS-bild, och föreslå en lösning på det. Arbetet syftar till att utveckla en ny lösning för att uppfylla noggrannhetskravet för ansiktsbaserad biometrisk igenkänning, genom att dra nytta av den senaste NIR-ansiktsteknologin och samtidigt tillåta användning av befintliga VIS-ansiktsbilder som gallerimallar. Ansiktsigenkänning görs genom att matcha en NIR-sond ansikte mot ett VIS galleri ansikte. Baserat på en analys av egenskaper hos NIR- och VIS-ansiktsbilder föreslår vi en inlärningsbaserad metod för olika modalitetsmatchning. En mekanism för korrelation mellan NIR- och VIS-ansikten lärs av NIR→VIS ansiktspar, och den inlärda korrelationen används för att utvärdera likheten mellan ett NIR-ansikte och ett VIS-ansikte. Vi tillhandahåller preliminära resultat av NIR→VIS ansiktsmatchning för igenkänning under olika belysningsförhållanden. Resultaten visar på fördelar med NIR→VIS matchning över VIS→VIS matchning. | Den kanoniska korrelationsanalysen (CCA) applicerades för att lära sig korrelationen mellan NIR och VIS ansiktsbilder av Yi et al. Hoppa över det. | 15,951,875 | Face matching between near infrared and visible light images | {'venue': 'ICB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,180 |
Crowd counting är ett mycket utmanande problem i datorseende och maskininlärning. De flesta tidigare metoder har fokuserat på konsekventa densitetsmassor, dvs. antingen en gles eller en tät skara, vilket innebär att de presterade bra i global uppskattning samtidigt försumma lokala noggrannhet. För att göra folkmassan mer användbar i den verkliga världen, föreslår vi ett nytt perspektiv, namngiven pan-densitet folkmassa räkning, som syftar till att räkna människor i varierande densitet skaror. Särskilt föreslår vi Pan-Density Network (PadNet) som består av följande kritiska komponenter. För det första innehåller Density-Aware Network (DAN) flera undernätverk som är förberedda på scenarier med olika densiteter. Denna modul kan fånga information om täthet. För det andra fångar Feature Enhancement Layer (FEL) effektivt de globala och lokala kontextuella funktionerna och genererar en vikt för varje densitetsspecifik funktion. För det tredje bäddar Feature Fusion Network (FFN) in rumsliga sammanhang och smälter samman dessa densitetsspecifika funktioner. Vidare föreslås måtten Patch MAE (PMAE) och Patch RMSE (PRMSE) för att bättre utvärdera prestandan på de globala och lokala uppskattningarna. Omfattande experiment på fyra crowd counting benchmarking dataset, ShanghaiTech, UCF_CC_50, UCSD, och UCF-QNRF, indikerar att PADNet uppnår toppmodern igenkänning prestanda och hög robusthet i pan-density crowd counting. Index Terms-Crowd räkna, densitet nivå analys, pan-densitet utvärdering, konvolutionella neurala nätverk. | Tian m.fl. REF föreslog crowd density-aware nätverket för att korrekt räkna antalet människor i varierande densitet scener. | 53,227,020 | PaDNet: Pan-Density Crowd Counting | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 6,181 |
Abstrakt. Att härleda 3D-objekt och layouten av inomhusscener från en enda RGB-D-bild fångad med en Kinect-kamera är en utmanande uppgift. Mot detta mål föreslår vi en högklassig grafisk modell och resonerar gemensamt om layouten, objekten och superpixlarna i bilden. I motsats till befintliga holistiska tillvägagångssätt utnyttjar vår modell detaljerad 3D-geometri med omvänd grafik och tillämpar uttryckligen ocklusions- och synlighetsbegränsningar för att respektera scenegenskaper och projektiv geometri. Vi kastar uppgiften som MAP-slutsats i en faktorgraf och löser den effektivt med hjälp av meddelandepassage. Vi utvärderar vår metod med avseende på flera baslinjer på den utmanande NYUv2 inomhusdatauppsättningen med 21 objektkategorier. Våra experiment visar att den föreslagna metoden kan sluta scener med en stor grad av skräp och ocklusioner. | Geiger och Wang REF infer 3D-objekt och scenlayout från en enda RGB-D-bild genom att anpassa CAD-objektmodeller till scenen. | 13,236,460 | Joint 3D Object and Layout Inference from a Single RGB-D Image | {'venue': 'GCPR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,182 |
Vi presenterar grafen uppmärksamhet nätverk (GAT), nya neurala nätverk arkitekturer som fungerar på graf-strukturerade data, utnyttja maskerade självuppmärksamhet lager för att ta itu med bristerna i tidigare metoder baserade på graf konvolutioner eller deras approximationer. Genom att stapla lager i vilka noder kan delta över sina stadsdelars funktioner, möjliggör vi (implicit) ange olika vikter till olika noder i ett område, utan att kräva någon form av dyr matris operation (såsom inversion) eller beroende på att veta grafstrukturen i förskott. På så sätt tar vi itu med flera viktiga utmaningar för spektral-baserade graf neurala nätverk samtidigt, och gör vår modell lätt tillämplig på såväl induktiva som transduktiva problem. Våra GAT modeller har uppnått eller matchat state-of-t heart resultat över fyra etablerade transduktiva och induktiva graf riktmärken: Cora, Citeseer och Pubmed citeringsnätverk dataset, samt en proteinprotein interaktion dataset (där test grafer förblir osedda under träning). | GCNN:s prestanda kan förbättras genom att inkorporera uppmärksamhetsnoder REF, vilket leder till grafens uppmärksamhetsnätverk (GAT). | 3,292,002 | Graph Attention Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,183 |
I detta arbete utbildar vi på ett end-to-end sätt ett konvolutionellt neuralt nätverk (CNN) som gemensamt hanterar låg-, medel- och högnivåseende uppgifter i en enhetlig arkitektur. Ett sådant nätverk kan fungera som en "swiss kniv" för vision uppgifter; vi kallar det ett "UberNet" för att indikera dess övergripande natur. Det viktigaste bidraget från detta arbete består i att hantera utmaningar som uppstår när man expanderar upp till många uppgifter. Vi introducerar tekniker som underlättar (i) utbildning en djup arkitektur samtidigt som man förlitar sig på olika träningsset och (ii) utbildning många (potentiellt obegränsad) uppgifter med en begränsad minnesbudget. Detta gör att vi kan träna på ett end-to-end sätt en enhetlig CNN-arkitektur som gemensamt hanterar (a) gränsdetektering (b) normal uppskattning (c) saltuppskattning (d) semantisk segmentering (e) mänsklig del segmentering (f) semantisk gränsdetektering, (g) regionförslag generering och objektdetektering. Vi får konkurrenskraftiga resultat samtidigt som vi gemensamt tar itu med alla uppgifter på 0,7 sekunder på en GPU. Vårt system kommer att göras tillgängligt för allmänheten. | Nyligen föreslog Kokkinos ett UberNet som gör det möjligt att hantera ett stort antal low-, mid- och high-level vision uppgifter samtidigt REF. | 8,070,108 | UberNet: Training a Universal Convolutional Neural Network for Low-, Mid-, and High-Level Vision Using Diverse Datasets and Limited Memory | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,184 |
Många människor tillbringar allt mer tid framför datorskärmar utrustade 48 med lysdioder (LED) med kortvågslängd (blå räckvidd). Således undersökte vi 49 återverkningar på melatonin (en markör för den cirkadiska klockan), vakenhet och kognitiva 50 prestandanivåer hos 13 unga manliga frivilliga under kontrollerade laboratorieförhållanden i en 51 balanserad cross-over design. En 5-timmars kvällsexponering för en vit LED bakgrundsbelyst skärm med mer än två gånger så mycket 464 nm ljusemission [irradians på 0,241 W/(sr*m 2 ), 2,1 x 10 13 53 fotoner/(cm 2 *s) i våglängdsområdet 454 och 474 nm] än en vit icke-LED bakgrundsbelyst 54 skärm [irradians på 0,099 W/(sr*m 2 ), 0,7 x 10 13 fotoner/(cm 2 *s) i våglängdsområdet 55 av 454 och 474 nm] framkallade en betydande dämpning av kvällens ökning i endogent 56 melatonin och subjektivt samt objektiv sömnighet som indexeras av en minskad incidens 57 av långsamma ögonrörelser och elektroencefalografiska lågfrekventa aktivitet (1-7 Hz) i 58 främre hjärnregioner. Samtidigt, ihållande uppmärksamhet som bestäms av GO/NOGO 59-uppgiften, arbetsminne/uppmärksamhet enligt bedömning av 'explicit timing' och deklarativ minne 60 prestanda i ett ordlärande paradigm förbättrades signifikant i LED-bakåtbelyst 61-skärmen jämfört med icke-LED-tillståndet. Skärmens kvalitet och visuella komfort bedömdes som 62 i båda skärmförhållandena, medan den icke-LED-skärmen tenderade att betraktas som 63 ljusare. Våra data visar att den spektralprofil av ljus som avges av datorskärmar 64 påverkar dygnsfysiologi, vakenhet och kognitiva prestandanivåer. Utmaningen 65 kommer att vara att utforma en datorskärm vars spektralprofil kan programmeras individuellt 66 för att lägga tidsinställd, viktig ljusinformation till det cirkadiska systemet hos människor. 67 68 Nyckelord (3-5): Icke-visuella effekter av ljus, spektralanalys, skiftarbete, melatonin, vakenhet 69 70 av 10.220.33.6 den 7 november 2016 http://jap.physiology.org/ Laddad från exponering kan leda till cirkadian missanpassning och därmed så småningom till sömnproblem (23), 95 depression (19) och även hjärt-kärlsjukdomar som ses hos skiftarbetare (27). 96 Här undersökte vi effekten av en bakgrundsbelyst LED-skärm (förstärkt i den korta 97 våglängdsregionen, d.v.s. 460nm) i jämförelse med en LED-fri datorskärm på ett brett 98-intervall av åtgärder i människans fysiologi och beteende, såsom melatoninnivåer, kognitiv 99 prestanda och EEG under vakenhet. Vår huvudsakliga förutsägelse var att en 5-timmars kväll 100 exponering för en LED-bakgrundsbelysning datorskärm, i jämförelse med en icke-LED datorskärm, 101 skulle undertrycka kvällens ökning av melatoninnivåer och väcka en varning svar, 102 med samtidig förbättring av kognitiv prestanda. 103 104 Metoder 105 Friska unga manliga volontärer (19 till 35 år) rekryterades via annonser vid 106 University of Basel i Schweiz. Potentiella studiedeltagare fyllde i frågeformulär om 107 sin allmänna hälsa, sömnkvalitet (Pittsburgh sleep quality index, PSQI) och sitt sömnvaka 108 beteende [Munich Chronotype sleep quality, MCTQ (34)]. Frivilliga med god sömn 109 kvalitet (PSQI poäng <5), ingen extrem kronotyp (>3 och <6 poäng på MCTQ frågeformulär), 110 och god allmän hälsa, genomgick en medicinsk undersökning som utförs av läkaren i 111 ansvariga och en oftalmologisk undersökning av en certifierad optiker att utesluta frivilliga 112 med synnedsättningar, såsom färgblindhet, minskad elev reaktion på ljus, och en 113 minskat synfält. Deltagarna uteslöts inte om de hade glasögon eller kontaktlinser. 114 Uteslutningskriterierna var rökning, medicinering eller drogkonsumtion, skiftarbete under de senaste 115 3 månaderna och transmeridflygningar upp till 3 månader före studien. Tretton frivilliga 116 (genomsnittsålder: 23,8 år ± 5,0 SD, genomsnittlig kroppsmasseindex: 22,6 ±1,7 SD), valdes sedan ut 117 för studien. Alla försökspersoner gav skriftligt informerat samtycke. Studieprotokollet, screening | REF fann en betydande fördröjning i dimljusmelatonindebut (DLMO) från kvällsexponering för LED-bakåtbelysta datorskärmar jämfört med kallkatodlysrör (CCFL)-bakåtbelysta datorskärmar. | 4,140,748 | Evening exposure to a light-emitting diodes (LED)-backlit computer screen affects circadian physiology and cognitive performance | {'venue': 'Journal of applied physiology', 'journal': 'Journal of applied physiology', 'mag_field_of_study': ['Medicine', 'Chemistry']} | 6,185 |
Händelser och enheter är nära besläktade; enheter är ofta aktörer eller deltagare i evenemang och händelser utan enheter är ovanliga. Tolkningen av händelser och enheter är i hög grad kontextuellt beroende. Befintligt arbete i informationsextrahering modellerar typiskt händelser separat från enheter, och utför slutsatser på straffnivå, ignorerar resten av dokumentet. I detta dokument föreslår vi ett nytt tillvägagångssätt som modellerar beroendena bland variablerna för händelser, enheter och deras relationer, och som gör en gemensam slutsats av dessa variabler i ett dokument. Målet är att möjliggöra tillgång till kontextuell information på dokumentnivå och underlätta för sammanhangsmedvetna förutsägelser. Vi visar att vårt tillvägagångssätt avsevärt överträffar de senaste metoderna för händelseextrahering samt en stark baslinje för enhetsextrahering. | I REF föreslogs att enheter och evenemang gemensamt skulle tas fram tillsammans med dokumentets sammanhang, och att man skulle förbättra insamlingen av händelser. | 2,367,456 | Joint Extraction of Events and Entities within a Document Context | {'venue': 'Proceedings of NAACL-HLT 2016, pages 289-299', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,186 |
Abstrakt. Vi visar att genom att utvidga den Laplacianska formalismen, som först introducerades i Grafikgemenskapen för att legalisera 3D-maskor, kan vi förvandla den monokulära 3D-formens rekonstruktion av en deformerbar yta givet korrespondenser med en referensbild till ett välplacerat problem. Detta kräver inte heller några träningsdata och eliminerar behovet av att i förväg anpassa referensformen till den som ska rekonstrueras, vilket gjordes i tidigare metoder. | REF införde Laplacian formalism i datorseendet för att reglera 3D-maskor utan att kräva några träningsdata. | 3,106,817 | Laplacian Meshes for Monocular 3D Shape Recovery | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,187 |
Abstrakt. Nuvarande generativa ramar använder end-to-end-lärande och genererar bilder genom provtagning från enhetlig bullerfördelning. Dessa metoder bortser dock från den mest grundläggande principen för bildbildning: bilder är en produkt av: a) Struktur: den underliggande 3D-modellen; b) Stil: den textur som kartlagts på struktur. I detta dokument, vi faktorisera bildgenereringsprocessen och föreslå stil och struktur Generative Adversarial Network (S 2 -GAN). Vår S 2-GAN har två komponenter: Struktur-Gan genererar en yta normal karta; Style-Gan tar ytan normal karta som ingång och genererar 2D-bilden. Bortsett från en verklig vs. genererad förlustfunktion, använder vi en ytterligare förlust med beräknade ytnormaler från genererade bilder. De två GANs tränas först självständigt, och sedan slås ihop via gemensamt lärande. Vi visar vår S 2-GAN modell är tolkningsbar, genererar mer realistiska bilder och kan användas för att lära sig oövervakade RGBD representationer. | Till exempel i modellen Style and Structure GAN (S 2 -GAN) REF används en första GAN för att producera bildstrukturen, som sedan matas in i en andra GAN, ansvarig för bildstilen. | 1,541,706 | Generative Image Modeling using Style and Structure Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,188 |
Klassificering träd används i stor utsträckning i maskininlärning och data mining samhällen för att modellera propositionsdata. Den senaste tidens arbete har utvidgat detta grundläggande paradigm till att omfatta sannolikhetsbedömning av träd. Traditionella trädinlärningsalgoritmer antar att förekomster i träningsdata är homogena och självständigt fördelade. Relationella sannolikhetsträd (RPT) utvidgar standardsannolikhetsbedömningsträd till en relationsinställning där datafallen är heterogena och beroende av varandra. Vår algoritm för att lära sig strukturen och parametrarna för en RPT-sökning över ett utrymme av relationella funktioner som använder aggregeringsfunktioner (t.ex. AVERAGE, MODE, COUNT) för att dynamiskt promotionera relationsdata och skapa binära splits inom RPT. Tidigare arbete har identifierat ett antal statistiska förutfattade meningar på grund av egenskaper hos relationsdata såsom autokorrelering och gradskillnader. RPT-algoritmen använder en ny form av randomiseringstest för att justera för dessa fördomar. På en mängd olika relationella lärande uppgifter, RPT byggda med randomisering tester är betydligt mindre än andra modeller och uppnå likvärdiga, eller bättre, prestanda. | Relationella sannolikhetsträd (RPT) REF använder flera funktioner samtidigt. | 7,321,438 | Learning relational probability trees | {'venue': "KDD '03", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,189 |
I detta dokument presenterar vi en modell för TCP/IP ow c o n trol-mekanismen. Den hastighet med vilken data överförs ökar linjärt i tiden tills en paketförlust upptäcks. Vid t h a t p o i n t divideras överföringshastigheten med en konstant faktor. Förluster genereras av någon exogen slumpmässig process som är bara antas vara stationära. Detta gör att vi kan redogöra för alla korrelationer och all fördelning av inter-loss tider. Vi får ett uttryckligt uttryck för genomströmningen av en TCP-anslutning och gränser på genomströmningen när det finns en gräns för trängselfönstrets storlek. Dessutom studerar vi eekten av TimeOut-mekanismen på genomströmningen. En uppsättning experiment utförs över det verkliga Internet och en jämförelse ges med andra modeller som gör enkla antaganden om inter-loss time processen. | Altman m.fl. REF analysera TCP-genomströmning under en mer allmän förlustprocess som antas vara stationär. | 28,673 | A stochastic model of TCP/IP with stationary random losses | {'venue': 'SIGCOMM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,190 |
Abstrakt. Aggregering i nätverk har föreslagits som en metod för att minska energiförbrukningen i sensornätverk. I detta dokument utforskar vi två idéer om att ytterligare minska energiförbrukningen i samband med aggregering i nätverk. Den första är genom att påverka byggandet av routing träd för sensornätverk med målet att minska storleken på överförd data. I detta syfte föreslår vi en grupp-medveten nätverkskonfigurationsmetod som "klustrar" längs samma vägsensornoder som tillhör samma grupp. Den andra idén handlar om att införa en hierarki av utdatafilter på sensornätverket med målet att både minska storleken på överförda data och minimera antalet överförda meddelanden. Mer specifikt föreslår vi ett ramverk för att använda tidsmässiga koherenstoleranser i samband med aggregering i nätverk för att spara energi vid sensornoder samtidigt som specificerad datakvalitet upprätthålls. Dessa toleranser baseras på användarinställningar eller kan dikteras av nätverket i de fall då nätverket inte kan stödja den nuvarande toleransnivån. Vårt ramverk, TiNA, fungerar utöver befintliga system för aggregering i nätverk. Vi utvärderar experimentellt våra föreslagna system inom ramen för befintliga system för aggregering i nätverk. Vi presenterar experimentella resultat som mäter energiförbrukning, svarstid och datakvalitet för Group-By-frågor. På det hela taget ger våra system betydande energibesparingar när det gäller kommunikation och en försumbar minskning av datakvaliteten. | I REF föreslår de algoritmer för konfiguration av nätverk med gruppaware. | 5,624,300 | Balancing energy efficiency and quality of aggregate data in sensor networks | {'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']} | 6,191 |
Abstract-Compressive Sensing (CS) har undersökts i stor utsträckning i den kognitiva radiolitteraturen (CR) för att minska hårdvarukostnaden för att avkänna bredbandssignaler om man antar att man tidigare har kunskap om gleshetsmönstret. Kanalens gleshetsordning är dock tidsvarierande och provtagningshastigheten hos CS-mottagaren måste justeras utifrån dess värde för att till fullo utnyttja potentialen hos CS-baserade tekniker. I detta sammanhang, undersöka blind sparity order estimation (SOE) tekniker är en öppen forskningsfråga. För att ta itu med detta studerar vi en eigen value-baserad kompressiv SOE-teknik med hjälp av asymptotic random matristeori. Vi utför en detaljerad teoretisk analys av signalen plus brusfallet för att härleda den asymptotiska sannolikhetsfördelningsfunktionen för eigenvärde (aepdf) för den uppmätta signalens kovariansmatris för glesa signaler. Därefter, baserat på de härledda epdf-uttrycken, föreslår vi en teknik för att uppskatta glesheten i bredbandsspektrumet med kompressiva mätningar med hjälp av det maximala eigenvärdet av den uppmätta signalens kovariansmatris. Den föreslagna teknikens prestanda utvärderas i form av normaliserat SOE-fel (SOEE). Det visas att bredbandsspektrumets gleshetsordning kan beräknas på ett tillförlitligt sätt med hjälp av den föreslagna tekniken för en rad olika scenarier. Index Terms-Compressive Sensing, slumpmässig matris teori, sparsamhet orderuppskattning, bredband kognitiv radio. | I REF uppskattas sparty grad genom en eigen value-baserad metod, för bredbands kognitiva radiotillämpningar. | 13,039,460 | Compressive Sparsity Order Estimation for Wideband Cognitive Radio Receiver | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,192 |
Abstract-Spatiotemporala bilddeskriptorer får uppmärksamhet i bildforskningsgemenskapen för bättre representation av dynamiska texturer. I detta dokument introducerar vi en dynamisk-mikro-textur deskriptor, dvs. spatiotemporal riktningskurva (DNG), som beskriver både den rumsliga strukturen och rörelse i varje lokalt område genom att fånga riktningen för naturligt flöde i den timliga domänen. Vi använder strukturen i det lokala grannskapet, som ges av dess huvudsakliga riktningar, och beräkna övergången av sådana riktningar mellan ramar. Dessutom presenterar vi statistiken över riktningsövergångar i ett övergångsdiagram, som fungerar som en signatur för en viss spatiotemporal region i den dynamiska strukturen. Dessutom skapar vi en sekvensdeskriptor genom att dela spatiotemporalvolymen i flera regioner, beräkna en övergångsdiagram för var och en av dem, och representerar sekvensen som en uppsättning grafer. Våra resultat bekräftar robustheten hos den föreslagna deskriptorn i olika scenarier för uttrycksigenkänning och dynamisk texturanalys. | I REF föreslås en dynamisk mikrotexturbeskrivning som fångar den rumsliga strukturen och rörelsen i ett lokalt grannskap. | 950,369 | Spatiotemporal Directional Number Transitional Graph for Dynamic Texture Recognition | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 6,193 |
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation. | En annan välkänd singel humle klustering protokoll är HEED (Hybrid Energy-Efficient Distributed Clustering) REF. | 2,012,679 | HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 6,194 |
Defekter i ledbrosk kan repareras genom osteokondral transplantation (mosaisk ledplastik), där osteokondralproppar från icke-bärande områden i leden överförs till felstället. Incongruitet mellan pluggytan och det intilliggande brosket resulterar i ökat kontakttryck och sämre utfall. Vi jämför tre metoder i en får modell för att förutsäga den önskade reparationsytan för användning i datorstödd mosaik arthroplasty: manuell uppskattning, en kubisk spline yta, och en statistisk form atlas av knäet. Kubiksplinan visade sig bäst matcha broskytan före islag; atlasen visade sig matcha minst exakt. | En kubisk spline kan användas för att exakt förutsäga den ursprungliga ledytan REF. | 5,683,131 | Prediction of the Repair Surface over Cartilage Defects: A Comparison of Three Methods in a Sheep Model | {'venue': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'journal': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,195 |
En grupp personer kan analyseras på olika semantiska nivåer såsom individuella handlingar, deras interaktioner och hela gruppens aktivitet. I detta dokument föreslår vi ett strukturellt återkommande neuralt nätverk (SRNN) som använder en rad sammankopplade RNN för att gemensamt fånga åtgärder av individer, deras interaktioner, samt gruppaktivitet. Medan tidigare strukturella återkommande neurala nätverk antog att antalet noder och kanter är konstant, använder vi ett rutnät pooling lager för att ta itu med det faktum att antalet individer i en grupp kan variera. Vi utvärderar två varianter av det strukturella återkommande neurala nätverket på Volleyball Dataset. | I REF införde författarna modellen "Structural Recurrent Neural Network" (SRNN) som kan hantera ett varierande antal individer på scenen vid varje steg med hjälp av ett lager för poolning av rutnät. | 3,610,851 | Structural Recurrent Neural Network (SRNN) for Group Activity Analysis | {'venue': '2018 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'journal': '2018 IEEE Winter Conference on Applications of Computer Vision (WACV)', 'mag_field_of_study': ['Computer Science']} | 6,196 |
Microscopits är bekanta med många blemmor som fluorescence bilder kan ha på grund av damm och skräp, glas skavanker, ojämn fördelning av vätskor eller ytbeläggningar, etc. Microarray skannar visar liknande artefakter, som kan påverka efterföljande analys. Även om alla utom de starkest blemmor är svåra att hitta med det ohjälpta ögat, särskilt i högdensitet oligonukleotid matriser (HDONA), få verktyg finns tillgängliga för att hjälpa till med att upptäcka dessa defekter. Vi utvecklar ett nytt verktyg, Harshlight, för automatisk upptäckt och maskering av blemmor i HDONA microarray chips. Harshlight använder en kombination av statistik och bildbehandlingsmetoder för att identifiera tre olika typer av defekter: lokaliserade defekter som påverkar några sonder, diffusa defekter som påverkar större områden och utvidgade defekter som kan ogiltigförklara ett helt chip. Vi demonstrerar användningen av Harshlight kan väsentligt förbättra analysen av HDONA chips, särskilt för experiment med subtila förändringar mellan prover. För den allmänt använda MAS5-algoritmen, visar vi att kompakta blemmor orsakar ett genomsnitt av 8 genuttrycksvärden per chip att förändras med mer än 50%, två av dem mer än tvåfaldigt; vår maskeringsalgoritm återställer cirka två tredjedelar av denna skada. Storskaliga artefakter upptäcks och elimineras framgångsrikt. | En av de vanligaste metoderna är Harshlight REF, som identifierar och maskerar lokala artefakter baserade på statistiska metoder och bildbehandlingsmetoder. | 2,192,035 | Harshlight: a "corrective make-up" program for microarray chips | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,197 |
Skylineoperatören och dess varianter såsom dynamiska skyline- och omvända skylineoperatörer har på senare tid fått stor uppmärksamhet på grund av sina breda tillämpningar. Beräkningar av sådana operatörer är dock utmanande idag eftersom det finns en ökande trend av tillämpningar för att hantera big data. För sådana dataintensiva tillämpningar har ramen MapReduce använts i stor utsträckning på senare tid. I detta dokument föreslår vi effektiva parallella algoritmer för behandling av skyline och dess varianter med MapReduce. Vi bygger först histogram för att effektivt rensa ut icke-skyline (icke-omvänd skyline) punkter i förväg. Vi nästa partition data baserat på regionerna divideras med histogram och beräkna kandidat (omvänt) skyline punkter för varje region självständigt med MapReduce. Slutligen kontrollerar vi om varje kandidatpunkt faktiskt är en (omvänd) punkt i varje region självständigt. Vår prestandastudie bekräftar effektiviteten och skalbarheten hos de föreslagna algoritmerna. | Nyligen, Park et al. REF presenterade en effektiv parallellalgoritm för skylinebehandling på MapReduce. | 14,923,674 | Parallel Computation of Skyline and Reverse Skyline Queries Using MapReduce | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 6,198 |
Vi rapporterar resultaten av en dator undersökning av uppsättningar av ömsesidigt ortogonala latin kvadrater (MOLS) av liten ordning. För n 9 vi 1. Bestäm antalet ortogonala par för varje art av latin kvadrat av ordningen n. 2. Beräkna andelen latinska kvadrater av ordningen n som har en ortogonal mate, och det förväntade antalet par när en kvadrat väljs jämnt på måfå. 3. Vad är det som händer? Klassificera alla uppsättningar av MOLS av ordning n upp till olika begrepp av likvärdighet. Vi erbjuder också en trippel av latin kvadrater av ordning 10 som är närmast att vara en uppsättning av MOLS hittills hittat. | I dokumentet REF utfördes uppräkningen av ömsesidigt ortogonala latinska kvadrater i ordning 9. | 36,203,770 | Enumeration of MOLS of small order | {'venue': 'Mathematics of Computation 85, 2016, 799-824', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,199 |
Abstract-Det är välkänt att tidig integration (även kallad datafusion) är effektiv när metoderna är korrelerade, och sen integration (även kallad beslut eller åsikt fusion) är optimal när villkoren är okorrelerade. I detta dokument föreslår vi en ny multimodal fusionsstrategi för öppen identifikation av högtalare med hjälp av en kombination av tidig och sen integration efter kanonisk korrelationsanalys (CCA) av tal- och läppstrukturfunktioner. Vi föreslår också en metod för hög precision synkronisering av tal- och läppfunktioner med hjälp av CCA före den föreslagna fusionen. Experimentella resultat visar att i) den föreslagna fusionsstrategin ger den bästa samma felfrekvensen (EER), som används för att kvantifiera fusionsstrategins prestanda för öppen identifikation av högtalare, och ii) exakt synkronisering före fusion förbättrar EER, vilket innebär att den bästa EER uppnås när det föreslagna synkroniseringssystemet används tillsammans med den föreslagna fusionsstrategin. Vi noterar att den föreslagna fusionsstrategin överträffar andra eftersom de funktioner som används i den sena integrationen verkligen är okorrelerade, eftersom de är resultatet av CCA-analysen. | I REF används CCA för att koppla samman funktioner från tal- och läppstruktur/rörelse till audiovisuell funktionssynkronisering som underlättar högtalaridentifiering. | 2,257,674 | Audiovisual Synchronization and Fusion Using Canonical Correlation Analysis | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 6,200 |
Dataintensiva flöden är centrala processer i dagens affärsintelligenssystem (BI) och använder olika tekniker för att leverera data, från en mängd olika datakällor, i användarrefererade och analysklara format. För att uppfylla komplexa krav för nästa generations BI-system behöver vi ofta en effektiv kombination av de traditionellt batchade processerna för extraherande transform-last (ETL) som befolkar ett datalager (DW) från integrerade datakällor, och mer realtids- och driftsdataflöden som integrerar källdata vid drifttidpunkten. Både den akademiska världen och industrin måste därför ha en tydlig förståelse för grunderna för dataintensiva flöden och utmaningarna med att gå mot nästa generations BI-miljöer. I den här artikeln presenterar vi en kartläggning av dagens forskning om dataintensiva flöden och de relaterade grundläggande fälten för databasteori. Studien bygger på en föreslagen uppsättning dimensioner som beskriver de viktiga utmaningarna med dataintensiva flöden i nästa generations BI-miljö. Som ett resultat av denna undersökning, vi föreställa oss en arkitektur av ett system för att hantera livscykeln för dataintensiva flöden. Resultaten ger också en omfattande förståelse för dataintensiva flöden, med insikt om de utmaningar som återstår att ta itu med och hur de nuvarande lösningarna kan tillämpas för att ta itu med dessa utmaningar. | Slutligen, Jovanovic et al. REF presenterar en undersökning som syftar till att presentera utmaningarna med moderna dataflöden genom olika dataflödesscenarier. | 33,750,550 | A Unified View of Data-Intensive Flows in Business Intelligence Systems: A Survey | {'venue': 'Trans. Large Scale Data Knowl. Centered Syst.', 'journal': 'Trans. Large Scale Data Knowl. Centered Syst.', 'mag_field_of_study': ['Computer Science']} | 6,201 |
I detta dokument analyserar och optimerar vi energieffektiviteten hos nedlänkade cellulära nätverk. Med hjälp av verktyg från stokastisk geometri introducerar vi en ny sluten form analytiskt uttryck av den potentiella spektraleffektiviteten (bit/sec/m 2 ). I det interferensbegränsade systemet för dataöverföring beror den föreslagna analytiska formuleringen, till skillnad från de nuvarande matematiska ramarna, på basstationernas överföringseffekt och spridningstäthet. Detta erhålls genom att generalisera definitionen av täckningsannolikhet och genom att redovisa mottagarens känslighet inte bara under avkodningen av informationsdata, utan även under cellbindningsfasen. Baserat på den nya formuleringen av den potentiella spektraleffektiviteten, energieffektivitet (bit/Joule) ges i en dragbar sluten form formel. Ett optimeringsproblem är formulerat och studeras utförligt. Det bevisas i synnerhet matematiskt att energieffektiviteten är en enmodal och strikt pseudokonkav funktion i sändningskraften, med tanke på basstationernas densitet och basstationernas densitet, med tanke på sändningskraften. Enligt dessa antaganden finns det därför en unik sändningseffekt och täthet hos basstationerna, vilket maximerar energieffektiviteten. Numeriska resultat illustreras för att bekräfta de erhållna resultaten och för att bevisa nyttan av den föreslagna ramen för optimering av nätplanering och utbyggnad av cellulära nät ur energieffektivitetssynpunkt. | Författarna till REF optimerade BS överföringseffekt och BS densitet gemensamt baserat på stokastisk geometri teori. | 4,777,725 | System-Level Modeling and Optimization of the Energy Efficiency in Cellular Networks—A Stochastic Geometry Framework | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,202 |
Utmaningarna för erkännande av namngivna enheter (NER) för tweets ligger i den otillräckliga informationen i en tweet och bristen på utbildningsdata. Vi föreslår att kombinera en K-Nearest Neighbors (KNN) klassificator med en linjär villkorlig Random Fields (CRF) modell under en halvövervakad inlärningsram för att ta itu med dessa utmaningar. Den KNN-baserade klassificeringen utför förmärkning för att samla in globala grova bevis över tweets medan CRF-modellen utför sekventiell märkning för att fånga finkornig information kodad i en tweet. Det halvövervakade lärandet plus åskådarna lindrar bristen på träningsdata. Omfattande experiment visar fördelarna med vår metod över baslinjerna samt effektiviteten av KNN och halvövervakat lärande. | REF fokuserar på NER på tweets och använder en halvövervakad inlärningsram för att identifiera fyra typer av enheter. | 417,913 | Recognizing Named Entities in Tweets | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,203 |
Abstract-Autonom platsdetektion har länge varit ett stort hinder för topologiska kartbyggande tekniker. Teoretiskt arbete med topologisk kartläggning har utgått från att platser på ett tillförlitligt sätt kan upptäckas av en robot, vilket resulterar i deterministiska åtgärder. Huruvida deterministisk detektering av platser alltid är möjlig är kontroversiellt; men även topologiska kartläggningsalgoritmer som förutsätter icke-determinism drar nytta av mycket tillförlitlig detektering av platser. Tyvärr har topologiska kartbyggande implementationer ofta handkodade platsdetekteringsalgoritmer som är spröda och domänberoende. Detta papper presenterar en algoritm för tillförlitlig autonom platsdetektering som är sensor och domän oberoende. En preliminär implementering av denna algoritm för en inomhusrobot har visat på tillförlitlig platsdetektering i verkliga miljöer, utan miljökunskaper på förhand. Implementeringen använder en lokal, rullning 2D beläggning rutnät och en realtid beräknad Voronoi graf för att hitta skelettet av det fria utrymmet i den lokala omgivningen. För att kunna använda platsdetekteringsalgoritmen i icke-korridormiljöer introducerar vi också den förlängda Voronoi-grafen (EVG), som sömlöst övergår från ett skelett av en mittlinje i korridorer till ett skelett som följer väggar i rum som är större än den lokala rullningskartan. | Dessutom har Extended Voronoi Graph (EVG) Ref presenterats på senare tid. | 15,945,744 | Towards Autonomous Topological Place Detection Using the Extended Voronoi Graph | {'venue': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings of the 2005 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,204 |
Abstract-Cascade AdaBoost clasfier är en välkänd effektiv algoritm för att upptäcka objekt. Kaskadstrukturen har många parametrar att fastställa. De flesta befintliga kaskadlärande algoritmer är utformade genom att tilldela detektionsfrekvens och falsk positiv hastighet till varje steg antingen dynamiskt eller statiskt. Deras objektiva funktioner är inte direkt relaterade till den lägsta beräkningskostnaden. Dessa algoritmer är inte garanterade att ha optimal lösning i betydelsen att minimera beräkningskostnaden. På antagandet att en stark klassificering ges, i detta papper föreslår vi en optimal kaskad lärande algoritm (vi kallar det iCascade) som iterativt partitionerar de starka klassificerare i två delar tills fördefinierat antal steg genereras. iCascade söker det optimala antalet ri av svaga klassificeringar av varje steg i genom att direkt minimera beräkningskostnaden för kaskaden. Teorem tillhandahålls för att garantera att det finns en unik optimal lösning. Teorem ges också för den föreslagna effektiva algoritmen för att söka optimala parametrar ri. När ett nytt steg har lagts till minskar parametern ri för varje steg gradvis allteftersom iterationen fortskrider, vilket vi kallar minskande fenomen. Dessutom, med målet att minimera beräkningskostnaden, utvecklar vi en effektiv algoritm för att ställa in den optimala tröskeln för varje steg klassificerare. Dessutom bevisar vi i teorin varför det krävs fler nya svaga klassificeringar jämfört med det sista steget. Experimentella resultat på ansiktsdetektering visar den föreslagna algoritmens effektivitet och ändamålsenlighet. | Dessutom presenterades en iCascade modell som kan söka den optimala partition punkten i varje steg genom att direkt minimera beräkningskostnaden för kaskad Ref. | 756,370 | Cascade Learning by Optimally Partitioning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,205 |
Storskaliga undersökningar av allmänhetens humör är kostsamma och ofta opraktiska att utföra. Webben är dock full av material som tyder på allmän stämning som bloggar, e-post och webbfrågor. Dyr innehållsanalys på så omfattande corpora kan användas för att bedöma allmänhetens humörsvängningar. Det arbete som presenteras här handlar om analysen av allmänhetens stämning inför framtiden. Med hjälp av en förlängning av Profile of Mood States frågeformulär, har vi extraherat stämningsindikatorer från 10 741 e-postmeddelanden som skickades in 2006 till futureme.org, en webbtjänst som gör det möjligt för dess användare att skicka sig själva e-post för att levereras vid ett senare tillfälle. Våra resultat tyder på långsiktig optimism inför framtiden, men på medellång sikt rädsla och förvirring. | Pepe och Bollen REF undersökte den allmänna stämningen kring framtiden på grundval av e-post som skickats till futureme.org, en webbtjänst som gör det möjligt att skicka schemalagda e-postmeddelanden vid framtida datum. | 6,713,631 | Between conjecture and memento: shaping a collective emotional perception of the future | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,206 |
Vi presenterar en allmän formulering för analys av vätskestrukturinteraktionsproblem med hjälp av partikel finita elementmetoden (PFEM). Det viktigaste inslaget i PFEM är användningen av en Lagrangian beskrivning för att modellera rörelsen av noder (partiklar) i både vätska och struktur domäner. Noder betraktas således som partiklar som fritt kan röra sig och till och med skilja sig från huvudanalysdomänen, som till exempel representerar effekten av vattendroppar. En mesh förbinder noderna som definierar den diskretiserade domänen där de styrande ekvationerna, uttryckta i en integral från, löses som i standard FEM. Den nödvändiga stabiliseringen för att hantera okomprimerbarheten i vätskan introduceras via den finita kalkylen (FIC) metoden. Ett delstegsschema för den transienta vätskestrukturlösningen beskrivs. Exempel på tillämpning av PFEM-metoden för att lösa ett antal vätskestrukturinteraktionsproblem som involverar stora rörelser av den fria ytan och stänk av vågor presenteras. | Även relaterad är den partikel finita element metod som utvecklats av Oñate och kollegor REF för att lösa problem fluid-structure interaktion. | 16,729,841 | THE PARTICLE FINITE ELEMENT METHOD. AN OVERVIEW | {'venue': None, 'journal': 'International Journal of Computational Methods', 'mag_field_of_study': ['Mathematics']} | 6,207 |
Abstract-Vi betraktar problemet med att bygga kostnadseffektiva nätverk som är robusta till dynamiska förändringar i efterfrågemönster. Vi jämför flera arkitekturer baserade på att använda demandoblivious routing strategier. Traditionella tillvägagångssätt inkluderar enhop arkitekturer baserade på en (statisk eller dynamisk) kretsar växlade kärninfrastruktur, och multi-hop (packet-switched) arkitekturer baserade på punkt-till-punkt kretsar i kärnan. För att ta itu med efterfrågeosäkerhet söker vi efter ett minimum av kostnadsnätverk som kan bära klassen slangefterfrågans matriser. Förutom kortast möjliga routing, Valiants randomiserade lastbalansering (RRB), och VPN-trädrouting, föreslår vi ett tredje, mycket attraktivt tillvägagångssätt: selektiv randomiserad lastbalansering (SRLB). Detta är en blandning av dual-hop nav routing och randomiserad lastbalansering som kombinerar fördelarna med båda arkitekturerna när det gäller nätverkskostnader, fördröjningar och fördröjningar jitter. I synnerhet ger vi empiriska analyser av kostnaderna (i fråga om transport- och bytesutrustning) för de diskuterade arkitekturerna, baserade på tre representativa transportnätverk. På dessa tre nätverk upprätthåller SRLB RLB:s motståndskraftsegenskaper samtidigt som man uppnår betydande kostnadsminskningar för alla andra arkitekturer, inklusive RLB- och multihop-IP/MPLS-nätverk med hjälp av VPN-trädrouting. | Vårt arbete motiverades delvis av arbete i REF, där Selective Randomized Load Balancing (SRRB) används för att designa minimikostnadsnätverk. | 1,889,773 | Selective randomized load balancing and mesh networks with changing demands | {'venue': None, 'journal': 'Journal of Optical Networking', 'mag_field_of_study': ['Computer Science']} | 6,208 |
Vi undersöker uppgiften som gemensam enhet relation utvinning. Till skillnad från tidigare insatser föreslår vi ett nytt lättviktsparadigm för gemensamt lärande baserat på minimiriskutbildning (MRT). Speciellt optimerar vår algoritm en global förlustfunktion som är flexibel och effektiv för att utforska interaktioner mellan enhetsmodellen och relationsmodellen. Vi implementerar ett starkt och enkelt neuralt nätverk där MRT utförs. Experimentella resultat på referensvärdena ACE05 och NYT visar att vår modell kan uppnå toppmoderna gemensamma utvinningsresultat. | I Ref föreslogs ett gemensamt inlärningsparadigm baserat på minimiriskutbildning. | 53,079,443 | Extracting Entities and Relations with Joint Minimum Risk Training | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,209 |
Abstract-Valet av den bästa klassificeringsalgoritmen för en given datauppsättning är ett mycket utbrett problem. Det är också komplicerat, i den mening som krävs för att göra flera viktiga metodiska val. I detta arbete fokuserar vi bland annat på det mått som används för att bedöma klassificeringens prestanda och rangordna algoritmerna. Vi presenterar de mest populära åtgärderna och diskuterar deras fastigheter. Trots de många åtgärder som har föreslagits under årens lopp visar sig många av dem vara likvärdiga i detta specifika fall. De kan också leda till tolkningsproblem och vara olämpliga för vårt syfte. Följaktligen bör den klassiska totala framgångsgraden eller marginalsatserna föredras för denna specifika uppgift. | Ett dokument REF av Vincent Labatut och Hocine Cherifi har fokuserat på den åtgärd som används för att bedöma klassificeringsprestandan och rangordna algoritmerna. | 14,192,736 | Accuracy Measures for the Comparison of Classifiers | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,210 |
Vi introducerar ett system för normalisering av sociala medier som kan användas som ett förbearbetningssteg för maskinöversättning och olika NLP-applikationer för att hantera social medietext. Det föreslagna systemet är baserat på oövervakad inlärning av normalisering ekvivalenser från omärkt text. Den föreslagna metoden använder Random Walks på en kontextuell likhet bipartit diagram konstruerat från n-gram sekvenser på stora omärkta text corpus. Vi visar att det föreslagna tillvägagångssättet har en mycket hög precision på (92.43) och ett rimligt återkallande av (56.4). När den används som ett förbearbetningssteg för ett toppmodernt maskinöversättningssystem, förbättrades översättningskvaliteten på social medietext med 6%. Det föreslagna tillvägagångssättet är domän- och språkoberoende och kan användas som ett förbehandlingssteg för alla NLP-tillämpningar för att hantera sociala mediers text. | REF föreslår en oövervakad metod som använder Random Walks på en kontextuell likhet bipartit diagram konstruerat från n-gram sekvenser. | 9,600,472 | Social Text Normalization using Contextual Graph Random Walks | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,211 |
Vi härleder nya gränser för ett begrepp av kontradiktorisk risk, som karakteriserar robustheten av binära klassificerare. Specifikt studerar vi fall av linjära klassificeringar och neurala nätverksklassificeringar, och introducerar transformationer med egenskapen att risken för de transformerade funktionerna är högre än den kontrariska risken för de ursprungliga funktionerna. Detta minskar problemet med att härleda kontradiktoriska riskbegränsningar till problemet med att härleda riskgränser med hjälp av vanliga inlärnings-teoretiska tekniker. Vi härleder sedan gränser på Rademacher komplex av de omvandlade funktionsklasserna, erhålla felfrekvenser i samma ordning som generalisering fel av de ursprungliga funktionsklasserna. Slutligen tillhandahåller vi två algoritmer för optimering av de kontradiktoriska riskgränserna i det linjära fallet, och diskuterar kopplingar till legalisering och distributionsstabilitet. | • För både linjära klassificeringar och neurala nätverk diskuterar vi generaliseringsgränserna för multi-class-inställningen, medan författarna i REF endast fokuserar på binär klassificering. | 126,164,576 | Adversarial Risk Bounds for Binary Classification via Function Transformation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,212 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.