<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Dear all,<br>
      (I included some more lists to ping them, discussion started here:
      <a class="moz-txt-link-freetext" href="http://mailman.uib.no/public/corpora/2014-August/020939.html">http://mailman.uib.no/public/corpora/2014-August/020939.html</a>)<br>
      <br>
      I see that there are many viewpoints on this issue in this thread.<br>
      So let me add my personal biased view.<br>
      <br>
      In the broadest sense, we start to create an ontology by stating
      facts:<br>
      <br>
      married (a, b) . <br>
      <br>
      Imho we have an ontology, solely for the reason, that we start to
      relate a to b with "married" . Even if there is not an explicit
      ontology defining "married", it is still used in an "ontological"
      way, just not explicit. There are other aspects missing, which
      have been discussed throughout the literature (i.e. the fact that
      it must be "shared" by Gruber), but in the broadest sense, it
      qualifies. <br>
      <br>
      Regarding language technology and this discussion, I would say
      that we should be careful not to mix levels. This is done by
      lexical-semantic resources, i.e. WordNet, but we could separate it
      again. <br>
      <br>
      In my view, we have these different layers:<br>
      <br>
      1. the content, i.e. the characters (html, plaintext), e.g in 
      unicode.<br>
      2. the container of the content, i.e. document or tweet<br>
      3. annotations on the content<br>
      4. metadata on the container, e.g. the tweeter or author for
      context<br>
      5. collection of content (with or without annotations) i.e. the
      corpora<br>
      6. ontologies and data describing language, i.e. lexica,
      dictionaries, terminologies, etc. such as WordNet<br>
      7. factual databases inluding their taxonomies, i.e. the DBpedia
      knowledge graph <a class="moz-txt-link-freetext" href="http://dbpedia.org">http://dbpedia.org</a><br>
      <br>
      (@John: I hope you are noticing, that I am trying to be keep all
      of it as underspecified as possible)<br>
      <br>
      Then in addition, there are ontologies on a meta-level that try to
      capture all seven layers. Some examples (more below): NIF, lemon,
      ITS, NERD [1]<br>
      which we are trying to combine in the <a class="moz-txt-link-freetext" href="http://nlp2rdf.org">http://nlp2rdf.org</a> and
      <a class="moz-txt-link-freetext" href="http://lider-project.eu">http://lider-project.eu</a> <br>
      <br>
      We can model WordNet using the lemon ontology:
      <a class="moz-txt-link-freetext" href="http://datahub.io/dataset/lemonwordnet">http://datahub.io/dataset/lemonwordnet</a><br>
      However for certain purposes, it makes sense to transform WordNet
      to become a taxonomy as YAGO is doing:<br>
<a class="moz-txt-link-freetext" href="https://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/">https://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/</a><br>
      <br>
      I am not fixed upon any of the definitions I gave above, as I am
      aware that you can and should! transform one in the other (with
      some effort, e.g. corpora to dictionary, fact extraction, language
      generation).<br>
      <br>
      If we are talking about extracting ontologies from text, there
      might be philosophical people who might want to argue that the
      ontology is already in the text. Discussion can be endless, if you
      take the wrong linguistic turn.<br>
      <br>
      If we are focusing on engineering of information machines, then
      things are much clearer. <br>
      <br>
      All the best, <br>
      Sebastian<br>
      <br>
      <br>
      <br>
      [1] related to the different layers:<br>
      1. NIF:
      <a class="moz-txt-link-freetext" href="http://persistence.uni-leipzig.org/nlp2rdf/ontologies/nif-core#">http://persistence.uni-leipzig.org/nlp2rdf/ontologies/nif-core#</a><br>
      2. (there is a gap here, Dublin Core or Foaf are not enough imho)<br>
      3 a) MARL: <a class="moz-txt-link-freetext" href="http://www.gi2mo.org/marl/0.1/ns.html">http://www.gi2mo.org/marl/0.1/ns.html</a><br>
         b) ITS: Docu: <a class="moz-txt-link-freetext" href="http://www.w3.org/TR/its20/">http://www.w3.org/TR/its20/</a> , RDF:
      <a class="moz-txt-link-freetext" href="http://www.w3.org/2005/11/its/rdf#">http://www.w3.org/2005/11/its/rdf#</a><br>
         c) OLIA: <a class="moz-txt-link-freetext" href="http://purl.org/olia/">http://purl.org/olia/</a><br>
      4. a) Dublin Core: <a class="moz-txt-link-freetext" href="http://dublincore.org/documents/dcmi-terms/">http://dublincore.org/documents/dcmi-terms/</a><br>
          b) Prov-O: <a class="moz-txt-link-freetext" href="http://www.w3.org/TR/prov-o/">http://www.w3.org/TR/prov-o/</a><br>
      5. also NIF:
      <a class="moz-txt-link-freetext" href="http://persistence.uni-leipzig.org/nlp2rdf/ontologies/nif-core#">http://persistence.uni-leipzig.org/nlp2rdf/ontologies/nif-core#</a><br>
      6. lemon: <a class="moz-txt-link-freetext" href="http://lemon-model.net/">http://lemon-model.net/</a><br>
      7. a) DCAT and DataId: <a class="moz-txt-link-freetext" href="http://wiki.dbpedia.org/coop/DataIDUnit">http://wiki.dbpedia.org/coop/DataIDUnit</a><br>
         b) NERD: <a class="moz-txt-link-freetext" href="http://nerd.eurecom.fr/ontology">http://nerd.eurecom.fr/ontology</a><br>
      <br>
      <br>
      <br>
      On 08.08.2014 06:11, John F Sowa wrote:<br>
    </div>
    <blockquote cite="mid:53E44DE4.4090105@bestweb.net" type="cite">On
      8/7/2014 10:57 PM, Ken Litkowski wrote:
      <br>
      <blockquote type="cite">It would seem to me that our goal should
        be a classification
        <br>
        of all existing things (not to exclude the narrower types).
        <br>
      </blockquote>
      <br>
      Yes, but note the slides I suggested in my first note:
      <br>
      <br>
         <a class="moz-txt-link-freetext" href="http://www.jfsowa.com/talks/kdptut.pdf">http://www.jfsowa.com/talks/kdptut.pdf</a>
      <br>
      <br>
      Slides 7 to 9:  Cyc project.  30 years of work (since 1984).
      <br>
      After the first 25 years, 100 million dollars and 1000
      person-years
      <br>
      of work (one person-millennium!), 600,000 concepts, defined by
      <br>
      5,000,000 axioms, organized in 6,000 microtheories -- and
      counting.
      <br>
      <br>
      Slide 10:  2300 years of universal ontology schemes -- and
      counting.
      <br>
      <br>
      <blockquote type="cite">The Brandeis Shallow Ontology attempts to
        do this, and incidentally
        <br>
        is being used to characterize arguments of verbs in Patrick
        Hanks
        <br>
        corpus pattern analysis, i.e., in the imperfect world of
        language.
        <br>
      </blockquote>
      <br>
      I strongly believe in shallow, underspecified ontologies --
      especially
      <br>
      when they're supplemented with lots of lexical information about
      verbs
      <br>
      and their characteristic patterns.
      <br>
      <br>
      But I also believe that the key to having an open-ended variety of
      <br>
      specialized ontologies is to make the computers do what people do:
      <br>
      extend their ontologies automatically by reading books.
      <br>
      <br>
      Lenat made the mistake of assuming that you need to hand-code
      <br>
      a huge amount of knowledge before a system can start to read
      <br>
      by itself.  But that's wrong.  You need to design a system that
      <br>
      can automatically augment its ontology every step of the way.
      <br>
      <br>
      John
      <br>
      <br>
      _______________________________________________
      <br>
      UNSUBSCRIBE from this page: <a class="moz-txt-link-freetext" href="http://mailman.uib.no/options/corpora">http://mailman.uib.no/options/corpora</a>
      <br>
      Corpora mailing list
      <br>
      <a class="moz-txt-link-abbreviated" href="mailto:Corpora@uib.no">Corpora@uib.no</a>
      <br>
      <a class="moz-txt-link-freetext" href="http://mailman.uib.no/listinfo/corpora">http://mailman.uib.no/listinfo/corpora</a>
      <br>
      <br>
    </blockquote>
    <br>
    <br>
    <div class="moz-signature">-- <br>
      <small>Sebastian Hellmann<br>
        AKSW/NLP2RDF research group<br>
        Insitute for Applied Informatics (InfAI) and DBpedia Association<br>
        Events: <br>
        * <b>Sept. 1-5, 2014</b> Conference Week in Leipzig, including
        <br>
        ** <b>Sept 2nd</b>, <a href="http://mlode2014.nlp2rdf.org/">MLODE
          2014</a> <br>
        ** <b>Sept 3rd</b>, <a
          href="http://wiki.dbpedia.org/meetings/Leipzig2014">2nd
          DBpedia Community Meeting</a><br>
        ** <b>Sept 4th-5th</b>, <a href="http://semantics.cc/">SEMANTiCS
          (formerly i-SEMANTICS) </a><br>
        Venha para a Alemanha como PhD: <a
          href="http://bis.informatik.uni-leipzig.de/csf">http://bis.informatik.uni-leipzig.de/csf</a><br>
        Projects: <a href="http://dbpedia.org">http://dbpedia.org</a>,
        <a href="http://nlp2rdf.org">http://nlp2rdf.org</a>, <a
          href="http://linguistics.okfn.org">http://linguistics.okfn.org</a>,
        <a href="http://www.w3.org/community/ld4lt">https://www.w3.org/community/ld4lt</a><br>
        Homepage: <a href="http://aksw.org/SebastianHellmann">http://aksw.org/SebastianHellmann</a><br>
        Research Group: <a href="http://aksw.org">http://aksw.org</a><br>
        Thesis:<br>
        <a href="http://tinyurl.com/sh-thesis-summary">http://tinyurl.com/sh-thesis-summary</a><br>
        <a href="http://tinyurl.com/sh-thesis">http://tinyurl.com/sh-thesis</a><br>
      </small></div>
  </body>
</html>