Nalaganje ...
Sistem trenutno ne more izvesti postopka. Poskusite znova pozneje.
Št. navedb na leto
Podvojene navedbe
Naslednji članki v Učenjaku so združeni. Pri teh se za
skupno število navedb
upošteva le prvi članek.
Združene navedbe
Ta števec navedb vsebuje navedbe naslednjih člankov v Učenjaku. Tisti, ki so označeni z
*
, se morda razlikujejo od člankov v profilu.
Dodajanje soavtorjev
Soavtorji
Spremljaj
Novi članki tega avtorja
Novi navedki člankov tega avtorja
Novi članki, povezani z raziskavami tega avtorja
E-poštni naslov za obvestila
Končano
Moj profil
Moja knjižnica
Podatki o navedbah
Opozorila
Nastavitve
Prijava
Prijava
Ustvarite profil
Navedeno
Vse
Od leta 2019
Navedbe
73
73
indeks h
3
3
indeks i10
3
3
0
26
13
2021
2022
2023
2024
10
14
26
23
Soavtorji
Noah A. Smith
University of Washington; Allen Institute for Artificial Intelligence
Preverjeni e-poštni naslov na cs.washington.edu
Nikolaos Pappas
Amazon (AWS AI Labs)
Preverjeni e-poštni naslov na amazon.com
Florian Mai
Postdoc, LIIR, KU Leuven
Preverjeni e-poštni naslov na kuleuven.be
James Henderson
Senior Researcher, Idiap Research Institute
Preverjeni e-poštni naslov na idiap.ch
Roy Schwartz
Senior lecturer, the School of Computer Science, the Hebrew University of Jerusalem
Preverjeni e-poštni naslov na mail.huji.ac.il
Ni Lao
Google
Preverjeni e-poštni naslov na cs.cmu.edu
Christopher DuBois
Apple
Preverjeni e-poštni naslov na apple.com
Shayne Longpre
MIT, Stanford, Apple
Preverjeni e-poštni naslov na cs.stanford.edu
Andrew J. Frank
PhD student, University of California Irvine
Preverjeni e-poštni naslov na ics.uci.edu
Spremljaj
Ivan Montero
Apple,
University of Washington
Preverjeni e-poštni naslov na cs.washington.edu -
Domača stran
Natural Language Processing
Machine Learning
Representation Learning
Članki
Navedeno
Soavtorji
Naslov
Razvrsti
Razvrsti po navedbah
Razvrsti po letniku
Razvrsti po naslovu
Navedeno
Navedeno
Leto
Plug and play autoencoders for conditional text generation
F Mai, N Pappas, I Montero, NA Smith, J Henderson
arXiv preprint arXiv:2010.02983
, 2020
30
2020
Sentence Bottleneck Autoencoders from Transformer Language Models
I Montero, N Pappas, NA Smith
arXiv preprint arXiv:2109.00055
, 2021
22
2021
How much does attention actually attend? questioning the importance of attention in pretrained transformers
M Hassid, H Peng, D Rotem, J Kasai, I Montero, NA Smith, R Schwartz
arXiv preprint arXiv:2211.03495
, 2022
19
2022
Pivot through english: Reliably answering multilingual questions without document retrieval
I Montero, S Longpre, N Lao, AJ Frank, C DuBois
arXiv preprint arXiv:2012.14094
, 2020
2
2020
Sistem trenutno ne more izvesti postopka. Poskusite znova pozneje.
Članki 1–4
Pokaži več
Zasebnost
Pogoji
Pomoč
O Učenjaku
Pomoč za Iskanje Google