Bracketing Guidelines for Treebank II Style

Total Page:16

File Type:pdf, Size:1020Kb

Bracketing Guidelines for Treebank II Style Bracketing Guidelines for Treebank II Style Penn Treebank Pro ject Principal authors Ann Bies Mark Ferguson Karen Katz and Rob ert MacIntyre Ma jor contributors 2 Victoria Tredinnick Grace Kim Mary Ann Marcinkiewicz Britta Schasberger January 1 This phase of the pro ject was funded by the Linguistic Data Consortium Previous work was funded by DARPA and AFOSR jointly under grant No AFOSR with additional supp ort by DARPA grant No NK and by ARO grant No DAAL C PRI Seed money was provided by the General Electric Corp oration under grant No J We gratefully acknowledge this supp ort 2 We would like to thank Mitch Marcus for his supp ort and encouragement in the pro duction of this do cument and the p olicy it describ es Leslie Dossey and Elizab eth Hamilton put a lot of eort into early analysis and organization of the issues Beatrice Santorini wrote the previous manual up on which much of our p olicy is still based Finally we would like to thank a set of p eople to o numerous to mention sp ecically for their helpful criticisms suggestions and advice CONTENTS Contents An Overview of Basic Clause Structure Basic elements of S : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Predicate : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Arguments of the predicate : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Level of attachment : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Complementation within syntactic categories : : : : : : : : : : : : : : : : : : : : : : : Mo dication : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Clause types : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : S : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : SINV : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : SBAR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : RRC reduced relative clause : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : SBARQ : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : SQ : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : SCLF : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : it extrap osition : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : FRAG : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Clause combinations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Co ordination : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Sub ordination the use of SBAR : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Fronted elements : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Quotations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Gapping : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Notation Bracket lab els : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Clause level : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Phrase level : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Function tags : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Formfunction discrepancies : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Grammatical role : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Adverbials : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Miscellaneous : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Null elements : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : CONTENTS Coindexing : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : The identity index : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : The reference index : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Pseudoattach : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Parentheticals : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Punctuation Basic guidelines : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Midsentence punctuation : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Final punctuation : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Miscellaneous : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Symbols functioning as words : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Mathematical symbols : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Ellipses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Null Elements The building blo cks : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Inventory : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Indexing : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Other tags : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 0 T trace of A movement : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Wh questions : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Relative clauses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Fronted elements : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Tough movement : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Parasitic gaps : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : trace of NP movement controlled PRO arbitrary PRO : : : : : : : : : : : : : : : : : : : Indexing : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Passives : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Sub jects of participial clauses and gerunds : : : : : : : : : : : : : : : : : : : : : : : : : Sub jects of innitival clauses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Sub jects of as and than clauses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : null complementizer : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Sub ordinator for tensed complement clauses : : : : : : : : : : : : : : : : : : : : : : : : Zero relative clauses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Innitival relative clauses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : CONTENTS U unit : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Uses : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Placement : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : placeholder for ellipsed material : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Comparative deletion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Deletion in noncomparatives : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Undened gaps : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : NOT antiplaceholder in template gapping : : : : : : : : : : : : : : : : : : : : : : : : : : In the copy : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : In the template : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Alternatives to NOT : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Miscellaneous : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Sub jectaux inversion with sub ject extractions : : : : : : : : : : : : : : : : : : : : : : Reduced relatives : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Attachment to null elements : : : : : : : : : : : : : : : : : :.
Recommended publications
  • Gotham Knights
    University of Denver Digital Commons @ DU Electronic Theses and Dissertations Graduate Studies 11-1-2013 House of Cards Matthew R. Lieber University of Denver Follow this and additional works at: https://digitalcommons.du.edu/etd Part of the Screenwriting Commons Recommended Citation Lieber, Matthew R., "House of Cards" (2013). Electronic Theses and Dissertations. 367. https://digitalcommons.du.edu/etd/367 This Thesis is brought to you for free and open access by the Graduate Studies at Digital Commons @ DU. It has been accepted for inclusion in Electronic Theses and Dissertations by an authorized administrator of Digital Commons @ DU. For more information, please contact [email protected],[email protected]. House of Cards ____________________________ A Thesis Presented to the Faculty of Social Sciences University of Denver ____________________________ In Partial Requirement of the Requirements for the Degree Master of Arts ____________________________ By Matthew R. Lieber November 2013 Advisor: Sheila Schroeder ©Copyright by Matthew R. Lieber 2013 All Rights Reserved Author: Matthew R. Lieber Title: House of Cards Advisor: Sheila Schroeder Degree Date: November 2013 Abstract The purpose of this thesis is to approach adapting a comic book into a film in a unique way. With so many comic-to-film adaptations following the trends of action movies, my goal was to adapt the popular comic book, Batman, into a screenplay that is not an action film. The screenplay, House of Cards, follows the original character of Miranda Greene as she attempts to understand insanity in Gotham’s most famous criminal, the Joker. The research for this project includes a detailed look at the comic book’s publication history, as well as previous film adaptations of Batman, and Batman in other relevant media.
    [Show full text]
  • How Do BERT Embeddings Organize Linguistic Knowledge?
    How Do BERT Embeddings Organize Linguistic Knowledge? Giovanni Puccettiy , Alessio Miaschi? , Felice Dell’Orletta y Scuola Normale Superiore, Pisa ?Department of Computer Science, University of Pisa Istituto di Linguistica Computazionale “Antonio Zampolli”, Pisa ItaliaNLP Lab – www.italianlp.it [email protected], [email protected], [email protected] Abstract et al., 2019), we proposed an in-depth investigation Several studies investigated the linguistic in- aimed at understanding how the information en- formation implicitly encoded in Neural Lan- coded by BERT is arranged within its internal rep- guage Models. Most of these works focused resentation. In particular, we defined two research on quantifying the amount and type of in- questions, aimed at: (i) investigating the relation- formation available within their internal rep- ship between the sentence-level linguistic knowl- resentations and across their layers. In line edge encoded in a pre-trained version of BERT and with this scenario, we proposed a different the number of individual units involved in the en- study, based on Lasso regression, aimed at understanding how the information encoded coding of such knowledge; (ii) understanding how by BERT sentence-level representations is ar- these sentence-level properties are organized within ranged within its hidden units. Using a suite of the internal representations of BERT, identifying several probing tasks, we showed the existence groups of units more relevant for specific linguistic of a relationship between the implicit knowl- tasks. We defined a suite of probing tasks based on edge learned by the model and the number of a variable selection approach, in order to identify individual units involved in the encodings of which units in the internal representations of BERT this competence.
    [Show full text]
  • Treebanks, Linguistic Theories and Applications Introduction to Treebanks
    Treebanks, Linguistic Theories and Applications Introduction to Treebanks Lecture One Petya Osenova and Kiril Simov Sofia University “St. Kliment Ohridski”, Bulgaria Bulgarian Academy of Sciences, Bulgaria ESSLLI 2018 30th European Summer School in Logic, Language and Information (6 August – 17 August 2018) Plan of the Lecture • Definition of a treebank • The place of the treebank in the language modeling • Related terms: parsebank, dynamic treebank • Prerequisites for the creation of a treebank • Treebank lifecycle • Theory (in)dependency • Language (in)dependency • Tendences in the treebank development 30th European Summer School in Logic, Language and Information (6 August – 17 August 2018) Treebank Definition A corpus annotated with syntactic information • The information in the annotation is added/checked by a trained annotator - manual annotation • The annotation is complete - no unannotated fragments of the text • The annotation is consistent - similar fragments are analysed in the same way • The primary format of annotation - syntactic tree/graph 30th European Summer School in Logic, Language and Information (6 August – 17 August 2018) Example Syntactic Trees from Wikipedia The two main approaches to modeling the syntactic information 30th European Summer School in Logic, Language and Information (6 August – 17 August 2018) Pros vs. Cons (Handbook of NLP, p. 171) Constituency • Easy to read • Correspond to common grammatical knowledge (phrases) • Introduce arbitrary complexity Dependency • Flexible • Also correspond to common grammatical
    [Show full text]
  • Senserelate::Allwords - a Broad Coverage Word Sense Tagger That Maximizes Semantic Relatedness
    WordNet::SenseRelate::AllWords - A Broad Coverage Word Sense Tagger that Maximizes Semantic Relatedness Ted Pedersen and Varada Kolhatkar Department of Computer Science University of Minnesota Duluth, MN 55812 USA tpederse,kolha002 @d.umn.edu http://senserelate.sourceforge.net{ } Abstract Despite these difficulties, word sense disambigua- tion is often a necessary step in NLP and can’t sim- WordNet::SenseRelate::AllWords is a freely ply be ignored. The question arises as to how to de- available open source Perl package that as- velop broad coverage sense disambiguation modules signs a sense to every content word (known that can be deployed in a practical setting without in- to WordNet) in a text. It finds the sense of vesting huge sums in manual annotation efforts. Our each word that is most related to the senses answer is WordNet::SenseRelate::AllWords (SR- of surrounding words, based on measures found in WordNet::Similarity. This method is AW), a method that uses knowledge already avail- shown to be competitive with results from re- able in the lexical database WordNet to assign senses cent evaluations including SENSEVAL-2 and to every content word in text, and as such offers SENSEVAL-3. broad coverage and requires no manual annotation of training data. SR-AW finds the sense of each word that is most 1 Introduction related or most similar to those of its neighbors in the Word sense disambiguation is the task of assigning sentence, according to any of the ten measures avail- a sense to a word based on the context in which it able in WordNet::Similarity (Pedersen et al., 2004).
    [Show full text]
  • Deep Linguistic Analysis for the Accurate Identification of Predicate
    Deep Linguistic Analysis for the Accurate Identification of Predicate-Argument Relations Yusuke Miyao Jun'ichi Tsujii Department of Computer Science Department of Computer Science University of Tokyo University of Tokyo [email protected] CREST, JST [email protected] Abstract obtained by deep linguistic analysis (Gildea and This paper evaluates the accuracy of HPSG Hockenmaier, 2003; Chen and Rambow, 2003). parsing in terms of the identification of They employed a CCG (Steedman, 2000) or LTAG predicate-argument relations. We could directly (Schabes et al., 1988) parser to acquire syntac- compare the output of HPSG parsing with Prop- tic/semantic structures, which would be passed to Bank annotations, by assuming a unique map- statistical classifier as features. That is, they used ping from HPSG semantic representation into deep analysis as a preprocessor to obtain useful fea- PropBank annotation. Even though PropBank tures for training a probabilistic model or statistical was not used for the training of a disambigua- tion model, an HPSG parser achieved the ac- classifier of a semantic argument identifier. These curacy competitive with existing studies on the results imply the superiority of deep linguistic anal- task of identifying PropBank annotations. ysis for this task. Although the statistical approach seems a reason- 1 Introduction able way for developing an accurate identifier of Recently, deep linguistic analysis has successfully PropBank annotations, this study aims at establish- been applied to real-world texts. Several parsers ing a method of directly comparing the outputs of have been implemented in various grammar for- HPSG parsing with the PropBank annotation in or- malisms and empirical evaluation has been re- der to explicitly demonstrate the availability of deep ported: LFG (Riezler et al., 2002; Cahill et al., parsers.
    [Show full text]
  • The Procedure of Lexico-Semantic Annotation of Składnica Treebank
    The Procedure of Lexico-Semantic Annotation of Składnica Treebank Elzbieta˙ Hajnicz Institute of Computer Science, Polish Academy of Sciences ul. Ordona 21, 01-237 Warsaw, Poland [email protected] Abstract In this paper, the procedure of lexico-semantic annotation of Składnica Treebank using Polish WordNet is presented. Other semantically annotated corpora, in particular treebanks, are outlined first. Resources involved in annotation as well as a tool called Semantikon used for it are described. The main part of the paper is the analysis of the applied procedure. It consists of the basic and correction phases. During basic phase all nouns, verbs and adjectives are annotated with wordnet senses. The annotation is performed independently by two linguists. Multi-word units obtain special tags, synonyms and hypernyms are used for senses absent in Polish WordNet. Additionally, each sentence receives its general assessment. During the correction phase, conflicts are resolved by the linguist supervising the process. Finally, some statistics of the results of annotation are given, including inter-annotator agreement. The final resource is represented in XML files preserving the structure of Składnica. Keywords: treebanks, wordnets, semantic annotation, Polish 1. Introduction 2. Semantically Annotated Corpora It is widely acknowledged that linguistically annotated cor- Semantic annotation of text corpora seems to be the last pora play a crucial role in NLP. There is even a tendency phase in the process of corpus annotation, less popular than towards their ever-deeper annotation. In particular, seman- morphosyntactic and (shallow or deep) syntactic annota- tically annotated corpora become more and more popular tion. However, there exist semantically annotated subcor- as they have a number of applications in word sense disam- pora for many languages.
    [Show full text]
  • Unified Language Model Pre-Training for Natural
    Unified Language Model Pre-training for Natural Language Understanding and Generation Li Dong∗ Nan Yang∗ Wenhui Wang∗ Furu Wei∗† Xiaodong Liu Yu Wang Jianfeng Gao Ming Zhou Hsiao-Wuen Hon Microsoft Research {lidong1,nanya,wenwan,fuwei}@microsoft.com {xiaodl,yuwan,jfgao,mingzhou,hon}@microsoft.com Abstract This paper presents a new UNIfied pre-trained Language Model (UNILM) that can be fine-tuned for both natural language understanding and generation tasks. The model is pre-trained using three types of language modeling tasks: unidirec- tional, bidirectional, and sequence-to-sequence prediction. The unified modeling is achieved by employing a shared Transformer network and utilizing specific self-attention masks to control what context the prediction conditions on. UNILM compares favorably with BERT on the GLUE benchmark, and the SQuAD 2.0 and CoQA question answering tasks. Moreover, UNILM achieves new state-of- the-art results on five natural language generation datasets, including improving the CNN/DailyMail abstractive summarization ROUGE-L to 40.51 (2.04 absolute improvement), the Gigaword abstractive summarization ROUGE-L to 35.75 (0.86 absolute improvement), the CoQA generative question answering F1 score to 82.5 (37.1 absolute improvement), the SQuAD question generation BLEU-4 to 22.12 (3.75 absolute improvement), and the DSTC7 document-grounded dialog response generation NIST-4 to 2.67 (human performance is 2.65). The code and pre-trained models are available at https://github.com/microsoft/unilm. 1 Introduction Language model (LM) pre-training has substantially advanced the state of the art across a variety of natural language processing tasks [8, 29, 19, 31, 9, 1].
    [Show full text]
  • Building a Treebank for French
    Building a treebank for French £ £¥ Anne Abeillé£ , Lionel Clément , Alexandra Kinyon ¥ £ TALaNa, Université Paris 7 University of Pennsylvania 75251 Paris cedex 05 Philadelphia FRANCE USA abeille, clement, [email protected] Abstract Very few gold standard annotated corpora are currently available for French. We present an ongoing project to build a reference treebank for French starting with a tagged newspaper corpus of 1 Million words (Abeillé et al., 1998), (Abeillé and Clément, 1999). Similarly to the Penn TreeBank (Marcus et al., 1993), we distinguish an automatic parsing phase followed by a second phase of systematic manual validation and correction. Similarly to the Prague treebank (Hajicova et al., 1998), we rely on several types of morphosyntactic and syntactic annotations for which we define extensive guidelines. Our goal is to provide a theory neutral, surface oriented, error free treebank for French. Similarly to the Negra project (Brants et al., 1999), we annotate both constituents and functional relations. 1. The tagged corpus pronoun (= him ) or a weak clitic pronoun (= to him or to As reported in (Abeillé and Clément, 1999), we present her), plus can either be a negative adverb (= not any more) the general methodology, the automatic tagging phase, the or a simple adverb (= more). Inflectional morphology also human validation phase and the final state of the tagged has to be annotated since morphological endings are impor- corpus. tant for gathering constituants (based on agreement marks) and also because lots of forms in French are ambiguous 1.1. Methodology with respect to mode, person, number or gender. For exam- 1.1.1.
    [Show full text]
  • Growing up Indian: an Emic Perspective
    GROWING UP INDIAN: AN EMIC PERSPECTIVE By GEORGE BUNDY WASSON, JR. A DISSERTATION Presented to the Department of Anthropology and the Graduate School of the University of Oregon in partial fulfillment of the requirements for the degree of Doctor of Philosophy june 2001 ii "Growing Up Indian: An Ernie Perspective," a dissertation prepared by George B. Wasson, Jr. in partial fulfillment of the requirements for the degree of Doctor of Philosophy in the Department of Anthropology. This dissertation is approved and accepted by: Committee in charge: Dr. jon M. Erlandson, Chair Dr. C. Melvin Aikens Dr. Madonna L. Moss Dr. Rennard Strickland (outside member) Dr. Barre Toelken Accepted by: ------------------------------�------------------ Dean of the Graduate School iii Copyright 2001 George B. Wasson, Jr. iv An Abstract of the Dissertation of George Bundy Wasson, Jr. for the degree of Doctor of Philosophy in the Department of Anthropology to be taken June 2001 Title: GROWING UP INDIAN: AN EMIC PERSPECTN E Approved: My dissertation, GROWING UP INDIAN: AN EMIC PERSPECTN E describes the historical and contemporary experiences of the Coquille Indian Tribe and their close neighbors (as manifested in my own family), in relation to their shared cultures, languages, and spiritual practices. I relate various tribal reactions to the tragedy of cultural genocide as experienced by those indigenous groups within the "Black Hole" of Southwest Oregon. My desire is to provide an "inside" (ernie) perspective on the history and cultural changes of Southwest Oregon. I explain Native responses to living primarily in a non-Indian world, after the nearly total loss of aboriginal Coquelle culture and tribal identity through v decimation by disease, warfare, extermination, and cultural genocide through the educational policies of the Bureau of Indian Affairs, U.S.
    [Show full text]
  • Converting an HPSG-Based Treebank Into Its Parallel Dependency-Based Treebank
    Converting an HPSG-based Treebank into its Parallel Dependency-based Treebank Masood Ghayoomiy z Jonas Kuhnz yDepartment of Mathematics and Computer Science, Freie Universität Berlin z Institute for Natural Language Processing, University of Stuttgart [email protected] [email protected] Abstract A treebank is an important language resource for supervised statistical parsers. The parser induces the grammatical properties of a language from this language resource and uses the model to parse unseen data automatically. Since developing such a resource is very time-consuming and tedious, one can take advantage of already extant resources by adapting them to a particular application. This reduces the amount of human effort required to develop a new language resource. In this paper, we introduce an algorithm to convert an HPSG-based treebank into its parallel dependency-based treebank. With this converter, we can automatically create a new language resource from an existing treebank developed based on a grammar formalism. Our proposed algorithm is able to create both projective and non-projective dependency trees. Keywords: Treebank Conversion, the Persian Language, HPSG-based Treebank, Dependency-based Treebank 1. Introduction treebank is introduced in Section 4. The properties Supervised statistical parsers require a set of annotated of the available dependency treebanks for Persian and data, called a treebank, to learn the grammar of the their pros and cons are explained in Section 5. The target language and create a wide coverage grammar tools and the experimental setup as well as the ob- model to parse unseen data. Developing such a data tained results are described and discussed in Section source is a tedious and time-consuming task.
    [Show full text]
  • Publication 573:7/17:New York State Registered Distributors of Beer
    Publication 573 New York State Registered Distributors of Beer NEW YORK STATE DEPARTMENT OF TAXATION AND FINANCE PAGE NO: 1 REPORT NO: MA0008R2 07/10/2017 REGISTERED DISTRIBUTORS - - - BEER B 2312 63 B 2730 61 B 2642 61 "DOYNA, LTD." 12 GATES BREWING COMPANY, LLC 1940'S BREWING COMPANY LLC 1055 HYLAN BLVD STE 11 378 PARK CLUB LN 1337 LINCOLN AVE UNIT 1 STATEN ISLAND NY 10305-2025 WILLIAMSVILLE NY 14221-5007 HOLBROOK NY 11741-2275 B 2544 61 B 2473 44 B 2655 14 2 WAY BREWING COMPANY, INC. 301 FRANKLIN STREET CAFE, INC. 42 NORTH BREWING COMPANY, LLC 2 WAY BREWING COMPANY 109 N FRANKLIN ST # 111 25 PINE ST 18 W MAIN ST STE 1 WATKINS GLEN NY 14891-1222 EAST AURORA NY 14052-1827 BEACON NY 12508-2512 B 2740 61 B 2506 61 B 2629 61 5 BOROUGHS BREWERY, INC. 7 N 15TH ST., CORP. A TASTE OF LONG ISLAND INC. FIVE BOROUGHS BREWING CO. 815 DITMAS AVE 159 SMITH ST 215 47TH ST BROOKLYN NY 11218-5203 MASSAPEQUA PK NY 11762-2041 BROOKLYN NY 11220-1009 B 1481 45 B 1296 40 B 2288 31 A. CAPPIONE, INC. A. J. MISSERT, INC. A.J. SUDS, INC. 54 LIBERTY AVE 1001 CHAMPLAIN ST SYRACUSE SUDS FACTORY MASSENA NY 13662-1597 OGDENSBURG NY 13669-3483 320 S CLINTON ST SYRACUSE NY 13202-1220 B 2432 03 B 2493 57 B 2449 52 A.L. GEORGE, LLC ABANDON BREWING COMPANY, LLC ADIRONDACK PUB AND BREWERY, IN A.L. GEORGE 2994 MERRITT HILL RD 33 CANADA ST 1 LINK DR PENN YAN NY 14527-8938 LAKE GEORGE NY 12845-1603 BINGHAMTON NY 13904-3218 B 2488 26 B 2027 55 B 2618 61 AJ'S BEER WAREHOUSE LLC ALL STAR BEVERAGES, INC.
    [Show full text]
  • Lnußi[?| Tn 'IT STARTED with EVE.' Kay Kyter, and Loy M “SHADOW of the •TANKS MILLION.” James Oleaaon
    Monday, March SO, 1942 DETROIT EVENING TIMES (PHONE CHERRY MfOO) PAGE 7 to of quartermaster or possibly which he would like to serve and pencil, shaving soap, toilet that he Is deemed unauitsble for in Illinois and had planned b# Service Briefs Fighting Men's Friend socks, military necessary boatsswain’s mate or boatswain. If there are vacancies and he can water, handkerchief* and Active nervier. married. Is a blood teat very LIBERTY LIMERICKS time you would be be spared from his own outfit, the like are acceptable. • Mrs. J. Barnes. Q—l was bom Illinois? What are the require- _ At the same in ¦ . might be approved. entitled to all the privileges and the transfer Worried. Q—ls a man Is wanted in Poland and at the at*e of 5 ments to obtain a marriage license T protection way of insur- in another state for a felony and years came to the United States in the GIFTS FOR SOLDIF.R \—You must take • blood ance, etc., afforded men in the is called into service in the army, with my parents. In June, I Michigan a brother In but certificate from w Wife Sister. —l have Am a Man Job for regular Q would the government turn him married an American citizen. timt. navy or any other branch of the country's armed forces. the marines of whom we are all over to the state in which he is 1 an American citizen? reputable physician In Michigan wanted? your father out his by the Illinois WANTS TRANSFER very proud.
    [Show full text]