4. Mai 2015

APEX_JSON ohne APEX: JSON erzeugen mit SQL und PL/SQL

Dieses Blog Posting dreht sich um ein PL/SQL-Paket, welches mit APEX 5.0 eingeführt wurde, welches aber auch für Nicht-APEX-Entwickler sehr interessant ist: APEX_JSON. Dieses Paket enthält JSON-Unterstützung für PL/SQL-Programmierer - JSON lässt sich damit sowohl parsen und auslesen als auch erzeugen. Erstellt man sich damit eigene Funktionen, so kommt die JSON-Unterstützung auch in die SQL-Welt. APEX_JSON ist zwar Teil von APEX 5.0 (und wird auch mit diesem zusammen installiert), die Nutzung erfolgt aber komplett losgelöst von APEX selbst; man kann es auch ohne APEX verwenden. Für den SQL und PL/SQL Entwickler bieten sich damit zwei Anwendungsfelder für APEX_JSON:
  • JSON kann nun auch in Datenbankversionen vor 12.1.0.2 geparst werden. Ab 12.1.0.2 empfehle ich aber dringend den Einsatz der nativen JSON-Unterstützung - die SQL/JSON-Funktionen wie JSON_VALUE, JSON_QUERY oder JSON_TABLE sind direkt im Datenbankkern implementiert und dürften damit effizienter sein, als eine PL/SQL-Lösung. Wer aber noch 11.2 oder 12.1.0.1 einsetzen muss, findet in APEX_JSON eine Alternative.
  • Das native Erzeugen von JSON mit SQL anhand von Tabellendaten geht auch mit 12.1.0.2 noch nicht; dieses Feature ist zwar geplant, aber eben noch nicht da. Hier kann APEX_JSON ebenfalls Abhilfe leisten.
In diesem Blog-Posting werde ich daher zeigen, wie man JSON mit APEX_JSON aus Tabellendaten generieren kann. Wie man JSON mit APEX_JSON ausliest, bleibt dem nächsten Posting vorbehalten. Wir starten (wie immer) einfach: Es soll ein JSON aus der wohlbekannten Tabelle EMP erzeugt werden. Für den Anfang reicht die Spalte ENAME. Der Code mit APEX_JSON sieht in etwa wie folgt aus.
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object();
  apex_json.open_array('emp');
  for i in (select ename from emp) loop
    apex_json.open_object();
    apex_json.write('ename', i.ename);
    apex_json.close_object;
  end loop;
  apex_json.close_array;
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
Als Ergebnis kommt heraus ...
{
  "emp":[
    { "ename":"SMITH" }
   ,{ "ename":"ALLEN" }
   ,{ "ename":"WARD" }
   ,{ "ename":"JONES" }

:

   ,{ "ename":"FORD" }
   ,{ "ename":"MILLER" }
  ]
}
Zu Beginn wird mit INITIALIZE_CLOB_OUTPUT festlegt, dass das generierte JSON in einen CLOB geschrieben werden soll (alternative steht für den APEX-Entwickler der HTP-Buffer bereit). INITIALIZE_CLOB_OUTPUT nimmt drei Parameter entgegen. Die ersten beiden Parameter benötigt APEX_JSON zum Erzeugen des temporären CLOBs - sie werden analog zu DBMS_LOB.CREATETEMPORARY genutzt. Der dritte Parameter legt fest, welche Einrückung für die JSON-Hierarchie verwendet werden soll.
Natürlich kann man auch komplexere JSON-Hierarchien generieren; man muss die Aufrufe von OPEN_OBJECT und OPEN_ARRAY nur entsprechend schachteln. Das folgende PL/SQL generiert JSON mit einer Hierarchieebene für die Tabellen DEPT und EMP.
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object();
  apex_json.open_array('dept');
  for i in (select * from dept) loop
    apex_json.open_object();
    apex_json.write('deptno', i.deptno);
    apex_json.write('dname',  i.dname);
    apex_json.open_array('emp');
    for e in (select * from emp where deptno = i.deptno) loop
      apex_json.open_object();
      apex_json.write('empno', e.empno);
      apex_json.write('ename', e.ename);
      apex_json.write('sal',   e.sal);
      apex_json.close_object;
    end loop;
    apex_json.close_array;
    apex_json.close_object;
  end loop;
  apex_json.close_array;
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
/

{
  "dept":[
    {
      "deptno":10
     ,"dname":"ACCOUNTING"
     ,"emp":[
        {
          "empno":7782
         ,"ename":"CLARK"
         ,"sal":2450
        }
       ,{
          "empno":7839
         ,"ename":"KING"

:

   ,{
      "deptno":40
     ,"dname":"OPERATIONS"
     ,"emp":[
      ]
    }
  ]
}
Achtet als Entwickler darauf, die OPEN_OBJECT und OPEN_ARRAY Aufrufe korrekt zu schachteln und mit CLOSE_OBJECT und CLOSE_ARRAY-Aufrufen zu schließen. APEX_JSON stellt das nicht sicher, wenn also ein CLOSE_OBJECT-Aufruf fehlt, bekommt Ihr eine ungültige JSON-Struktur. APEX_JSON bietet euch die Prozedur CLOSE_ALL an, die man am besten als letztes aufruft; diese schließt alle noch offenen Objekte und Arrays - und euer JSON ist syntaktisch korrekt.
Das bedeutet aber, dass die JSON-Hierarchie immer in einer PL/SQL-Prozedur oder einem anonymen Block "programmiert" werden muss. Die Frage ist, ob man da nicht etwas automatisieren kann - und in der Tat gibt es eine Variante von APEX_JSON.WRITE, die einen Cursor entgegennimmt. Die probieren wir gleich mal aus: Wir bauen eine SQL-Funktion, die einen beliebigen Cursor entgegennimmt und daraus JSON generiert.
create or replace function make_json(
  p_cursor in sys_refcursor,
  p_root   in varchar2 default 'query',
  p_indent in number default 2
) return clob 
is
  l_json   clob;
  l_cursor sys_refcursor := p_cursor;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, p_indent);
  apex_json.open_object();
  apex_json.write(p_root, l_cursor);
  apex_json.close_object;
  return apex_json.get_clob_output;
end make_json;
/
sho err
Verwendet wird die Funktion wie folgt ...
SQL select make_json(cursor(select * from emp)) as json_clob from dual;

JSON_CLOB
--------------------------------------------------------------------------------
{
  "query":  [
    {
      "EMPNO":7369
     ,"ENAME":"SMITH"
     ,"JOB":"CLERK"
     ,"MGR":7902
     ,"HIREDATE":"1980-12-17T00:00:00Z"
     ,"SAL":800
     ,"DEPTNO":20
    }
   ,{

:

     ,"SAL":1300
     ,"DEPTNO":10
    }
  ]
}
In diese Funktion könnt Ihr nun jede beliebige Query hineingeben; es wird immer ein JSON mit korrekten Attributnamen generiert. Allerdings ist die Struktur des generierten JSON - ebenso wie das Ergebnis einer SQL-Query - immer flach. Manchmal wird aber JSON mit Hierarchie gebraucht - muss man nun wieder programmieren ...?
Interessanterweise gibt es eine Version von APEX_JSON.WRITE, die einen XMLTYPE entgegennimmt. Ginge es nur darum, das XML so, wie es ist, ins JSON einzubauen, könnte man auch mit der APEX_JSON.WRITE-Variante arbeiten, die einen CLOB entgegennimmt. Wenn es aber eine eigene Variante für XMLTYPE gibt, muss mehr dahinterstecken. Probieren wir das mal aus, indem wir eine kleine Objektstruktur als XMLTYPE modellieren und daraus JSON erzeugen ...
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object('xml');
  apex_json.write(xmltype(
'<r>
  <c1>Test</c1>
  <c2>Test2</c2>
  <c3>
    <object>
      <a1>A1</a1>
      <a2>A2</a2>
    </object>
  </c3>
</r>'));
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
/

"xml":{
  {"c1":"Test","c2":"Test2","c3":{"object":{"a1":"A1","a2":"A2"}}}
}
APEX_JSON interpretiert den XMLTYPE ganz offensichtlich - und versucht, die XML-Struktur in JSON nachzubilden. Das kann man sich für unsere obige Funktion MAKE_JSON zunutze machen. Angenommen, wir erstellen eine XML-View auf die Tabelle EMP (dazu kann man die seit langem verfügbaren SQL/XML Funktionen hernehmen) ...
create or replace view empxml as 
select 
  empno, 
  xmlelement(
    "EMP",
    xmlelement("ENAME", ename), 
    xmlelement("SAL", ename), 
    xmlelement("MGR_TO", (
      select 
        xmlagg(
          xmlelement("EMP", 
            xmlelement("ENAME", d.ename)
          )
        )
        from emp d 
        where d.mgr = e.empno
      )
    ) 
  ) as xml from emp e
/
Die View lässt sich ganz normal selektieren ...
SQL> select empno, xmlserialize(document xml indent size=2)  xml from empxml e;

     EMPNO XML
---------- ----------------------------------------
      7369 <EMP>
             <ENAME>SMITH</ENAME>
             <SAL>SMITH</SAL>
             <MGR_TO/>
           </EMP>

      7566 <EMP>
             <ENAME>JONES</ENAME>
             <SAL>JONES</SAL>
             <MGR_TO>
               <EMP>
                 <ENAME>SCOTT</ENAME>
               </EMP>
               <EMP>
                 <ENAME>FORD</ENAME>
               </EMP>
             </MGR_TO>
           </EMP>
Gibt man das SELECT auf diese View nun als Cursor in die MAKE_JSON-Funktion, so bekommen wir JSON mit Hierarchie - und das ohne die Hierarchie in PL/SQL explizit zu programmieren ...
SQL> select make_json(cursor(select empno, xml emp from empxml)) from dual;

MAKE_JSON(CURSOR(SELECTEMPNO,XMLEMPFROMEMPXML))
--------------------------------------------------------------------------------
{
  "query":  [
    {
      "EMPNO":7369
     ,"EMP":{"ENAME":"SMITH","SAL":"SMITH","MGR_TO":null}
    }
   ,{
      "EMPNO":7566
     ,"EMP":{"ENAME":"JONES","SAL":"JONES","MGR_TO":[{"ENAME":"SCOTT"},{"ENAME": "FORD"}]}
    }
:

}
Was die XML-Struktur angeht, ist APEX_JSON sehr empfindlich: Angenommen, es soll ein Array mit Objekten, die je mehrere Attribute haben, generiert werden. Dann sollte in der generierten XML-Struktur jedes Objekt nochmals von einem XML-Tag umgeben sein - ist das nicht der Fall, so generiert APEX_JSON unter Umständen eine andere Struktur. Hier muss man einfach ein wenig experimentieren.
Das mit APEX 5.0 eingeführte PL/SQL-Paket APEX_JSON eignet sich auch außerhalb von APEX sehr gut, um JSON aus SQL und PL/SQL heraus zu generieren. Die zu erzeugende JSON-Struktur kann mit PL/SQL-Aufrufen "programmiert" werden. Darüber hinaus bietet APEX_JSON die Möglichkeit an, JSON anhand eines Cursors zu erzeugen; alle Attributnamen werden dann aus den Tabellenspalten abgeleitet. Selektiert dieser Cursor XML-Dokumente als XMLTYPE, so leitet APEX_JSON die JSON-Strukturen aus dem XML ab - komplexe, hierarchische JSON-Strukturen lassen sich so auch ohne PL/SQL-Programmierung erzeugen: Es braucht nur eine generische SQL-Funktion, welche einen Cursor entgegennimmt und ein CLOB zurückliefert.
This Blog Posting is about a PL/SQL package, which has recently been introduced with APEX 5.0, and which is very interesting also for non-APEX Developers: APEX_JSON. This package is based upon the very popular PL/JSON package and provides PL/SQL support for parsing and generating JSON. By building own SQL functions, APEX_JSON functionality can be brought to the SQL layer as well (if you are interested in this, read on). SQL and PL/SQL developers can find two very nice use-cases for APEX_JSON - outside of APEX:
  • JSON can now be parsed also in pre-12.1.0.2 databases. In 12.1.0.2 and higher, I'd recommand to use the new native SQL/JSON functions. JSON_VALUE, JSON_QUERY or JSON_TABLE have been implemented at SQL level, within the database kernel, and should therefore be more efficient than a PL/SQL solution. But those who need to implement JSON parsing on 11.2 or 12.1.0.1, can now use APEX_JSON very nicely for their requirements.
  • Generating JSON from SQL query results or table data is still not possible with SQL alone - even with 12.1.0.2. Until this feature arrives, we can do this kind of work with APEX_JSON.
So, in this blog posting, I'll show how JSON can be generated from table data using APEX_JSON - but at the SQL and PL/SQL layer - without APEX. The next posting will then be about parsing JSON with APEX_JSON. Let's start easy (as always): We want to generate JSON from the well known table EMP and for this first example, the ENAME column is sufficient.
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object();
  apex_json.open_array('emp');
  for i in (select ename from emp) loop
    apex_json.open_object();
    apex_json.write('ename', i.ename);
    apex_json.close_object;
  end loop;
  apex_json.close_array;
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
The result of this PL/SQL block is ...
{
  "emp":[
    { "ename":"SMITH" }
   ,{ "ename":"ALLEN" }
   ,{ "ename":"WARD" }
   ,{ "ename":"JONES" }

:

   ,{ "ename":"FORD" }
   ,{ "ename":"MILLER" }
  ]
}
At the beginning, we initialize the JSON generator with INITIALIZE_CLOB_OUTPUT. So, the JSON output will be written to a (temporary) CLOB. Within APEX, there is also the alternative to write the output to the HTP buffer. INITIALIZE_CLOB_OUTPUT takes three parameters. The first two are being used to construct the internal temporary LOB, usage is the same as in DBMS_LOB.CREATETEMPORARY. The third parameter determines the indentation for the JSON hierarchy.
Of course, APEX_JSON also allows to create more complex JSON hierarchies. It's all about the nesting of OPEN_OBJECT and OPEN_ARRAY calls. So, the following example generates "nested JSON" for the tables DEPT and EMP.
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object();
  apex_json.open_array('dept');
  for i in (select * from dept) loop
    apex_json.open_object();
    apex_json.write('deptno', i.deptno);
    apex_json.write('dname',  i.dname);
    apex_json.open_array('emp');
    for e in (select * from emp where deptno = i.deptno) loop
      apex_json.open_object();
      apex_json.write('empno', e.empno);
      apex_json.write('ename', e.ename);
      apex_json.write('sal',   e.sal);
      apex_json.close_object;
    end loop;
    apex_json.close_array;
    apex_json.close_object;
  end loop;
  apex_json.close_array;
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
/

{
  "dept":[
    {
      "deptno":10
     ,"dname":"ACCOUNTING"
     ,"emp":[
        {
          "empno":7782
         ,"ename":"CLARK"
         ,"sal":2450
        }
       ,{
          "empno":7839
         ,"ename":"KING"

:

   ,{
      "deptno":40
     ,"dname":"OPERATIONS"
     ,"emp":[
      ]
    }
  ]
}
Note, that you as the developer are responsible for the correct nesting of your OPEN_OBJECT and OPEN_ARRAY calls and that you have to call CLOSE_OBJECT and CLOSE_ARRAY repectively. Opening an object or an array without closing it leads to a wrong or invalid JSON structure. APEX_JSON provides the CLOSE_ALL procedure, which is best being called at the end of your procedure; it will prevent generating JSON with objects unclosed.
It seems that the JSON hierarchy always has to be "coded" with PL/SQL calls in a procedure or an anonymous block. In practice, we often need something more "automagically": We want to provide a query - and the generator does the rest. For this purpose, one overloading of APEX_JSON.WRITE takes a cursor as parameter. Let's try this out: We build a generic SQL function, taking a Cursor as its parameter and generating JSON from that cursor with APEX_JSON.
create or replace function make_json(
  p_cursor in sys_refcursor,
  p_root   in varchar2 default 'query',
  p_indent in number default 2
) return clob 
is
  l_json   clob;
  l_cursor sys_refcursor := p_cursor;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, p_indent);
  apex_json.open_object();
  apex_json.write(p_root, l_cursor);
  apex_json.close_object;
  return apex_json.get_clob_output;
end make_json;
/
sho err
This function can be used as follows ...
SQL select make_json(cursor(select * from emp)) as json_clob from dual;

JSON_CLOB
--------------------------------------------------------------------------------
{
  "query":  [
    {
      "EMPNO":7369
     ,"ENAME":"SMITH"
     ,"JOB":"CLERK"
     ,"MGR":7902
     ,"HIREDATE":"1980-12-17T00:00:00Z"
     ,"SAL":800
     ,"DEPTNO":20
    }
   ,{

:

     ,"SAL":1300
     ,"DEPTNO":10
    }
  ]
}
Now we have a function which can take any SQL query to generate JSON from its results. And we can use this query in the SQL layer - no PL/SQL needed from here on. With this function you should be able to take out a large amount of PL/SQL "JSON generator" code. This function does it all.
The JSON structure coming out of this function will always be as flat as a SQL query result is. In some cases, more complex JSON with a hierarchy is needed - does that mean we have to write PL/SQL code again ...?
Interestingly, there is another overloading of APEX_JSON.WRITE. This one takes XMLTYPE as its parameter, and its purpose is not to simply embed XML to the JSON output (the CLOB variant does this). This function can do more - and to explore how it works, again, a simple example is needed: Let's model a simple object structure as XMLTYPE and pass this to APEX_JSON.WRITE.
declare
  l_json clob;
begin
  apex_json.initialize_clob_output(DBMS_LOB.CALL, true, 2);
  apex_json.open_object('xml');
  apex_json.write(xmltype(
'<r>
  <c1>Test</c1>
  <c2>Test2</c2>
  <c3>
    <object>
      <a1>A1</a1>
      <a2>A2</a2>
    </object>
  </c3>
</r>'));
  apex_json.close_object;
  dbms_output.put_line(apex_json.get_clob_output);
end;
/

"xml":{
  {"c1":"Test","c2":"Test2","c3":{"object":{"a1":"A1","a2":"A2"}}}
}
APEX_JSON examines the XMLTYPE and tries to rebuild the XML structure in the JSON output. We can use this for the above MAKE_JSON function - the cursor needs to select an XMLTYPE column, then. Thus, we now create a more complex XML structure for the data within the EMP table. We use the SQL/XML functions to generate XML and encapsulate the SQL query in a view.
create or replace view empxml as 
select 
  empno, 
  xmlelement(
    "EMP",
    xmlelement("ENAME", ename), 
    xmlelement("SAL", ename), 
    xmlelement("MGR_TO", (
      select 
        xmlagg(
          xmlelement("EMP", 
            xmlelement("ENAME", d.ename)
          )
        )
        from emp d 
        where d.mgr = e.empno
      )
    ) 
  ) as xml from emp e
/
The view can be selected ...
SQL> select empno, xmlserialize(document xml indent size=2)  xml from empxml e;

     EMPNO XML
---------- ----------------------------------------
      7369 <EMP>
             <ENAME>SMITH</ENAME>
             <SAL>SMITH</SAL>
             <MGR_TO/>
           </EMP>

      7566 <EMP>
             <ENAME>JONES</ENAME>
             <SAL>JONES</SAL>
             <MGR_TO>
               <EMP>
                 <ENAME>SCOTT</ENAME>
               </EMP>
               <EMP>
                 <ENAME>FORD</ENAME>
               </EMP>
             </MGR_TO>
           </EMP>
Passing this query to the MAKE_JSON function leads to a JSON result with a hierarchy according to the structure of the XMLTYPE column XML. We generated JSON with a hierarchy, but we did not hard-code it with PL/SQL calls.
SQL> select make_json(cursor(select empno, xml emp from empxml)) from dual;

MAKE_JSON(CURSOR(SELECTEMPNO,XMLEMPFROMEMPXML))
--------------------------------------------------------------------------------
{
  "query":  [
    {
      "EMPNO":7369
     ,"EMP":{"ENAME":"SMITH","SAL":"SMITH","MGR_TO":null}
    }
   ,{
      "EMPNO":7566
     ,"EMP":{"ENAME":"JONES","SAL":"JONES","MGR_TO":[{"ENAME":"SCOTT"},{"ENAME": "FORD"}]}
    }
:

}
APEX_JSON seems to be a but picky regarding the XML structure; for instance, objects with multiple attributes should be encapsulated with an XML tag; if this is missing, you'll not get the right JSON structure. You might need to experiment a bit ...
Summarized, I think that the new APEX_JSON package introduced with APEX 5.0, is very usable outside of APEX as well. The SQL and PL/SQL programmer finds a nice solution for their "Generating JSON" needs. The option to generate JSON from a cursor allows very generic solutions - one PL/SQL procedure is able to generate JSON from multiple tables - always with correct attributes. Bringing XMLTYPE into the game even allows generic solutions with complex hierarchys. A simple SQL function taking a cursor and returning a CLOB brings all this functionality to the SQL layer.

2. April 2015

DOAG DevCamp - und weitere Veranstaltungen im Frühjahr 2015

This blog posting is about some upcoming events in Germany and in german language - and therefore in german only. Makes sense, doesn't it?
Auch wenn ich dieses Jahr wegen anderer Termine nicht teilnehmen kann, so möchte ich dennoch eine Lanze für das DOAG DevCamp, welches am 29. und 30. April in Frankfurt stattfindet, brechen. Dieses Mal steht die Veranstaltung unter dem allgemeinen Thema Upcycling Software - welches uns im Umfeld von Unternehmensdatenbanken und den Systemen drumherum immer wieder betrifft.
Auf dem ersten DevCamp letztes Jahr in München war ich dabei - und von der Art und Weise der Veranstaltung wirklich angetan. Es gibt im Vorfeld keine feste Agenda, zu Beginn kommen alle Teilnehmer zusammen und erstellen die Agenda gemeinsam. Das Format ist unglaublich flexibel und spontan - und auch ohne vorbereitete Vorträge entstehen Diskussionen, man bekommt eine Menge neuer Ideen, Gedanken und Anregungen.
Insofern: Wer noch kein Barcamp besucht hat, dem möchte ich das hiermit wärmstens empfehlen - probiert es einfach mal aus. Und wer schonmal auf einem war ... der weiss ja Bescheid.
Ich selbst werde, wie schon gesagt, dieses Mal nicht dabei sein - dafür findet Ihr mich in April, Mai und Juni auf folgenden DOAG Veranstaltungen.
  • DOAG BI 2015 in München:
    Hier bin ich mit zwei Vorträgen vertreten. Einmal zum Thema D3.js im Unternehmenseinsatz (auf den freue ich mich besonders) und einmal zum Thema Geodaten mit SQL - und ohne Karte.
  • DOAG Oracle Spatial & Geodata Day:
    Hier trifft sich die Oracle Geodaten-Community - zum ersten Mal nach etwas längerer Zeit. An diesem Tag geht es um Geodaten, die Oracle Datenbank und was man damit machen kann. Themen wie Routing mit der Datenbank, Adressvalidierung mit einem Geocoder und OpenStreetMap-Daten mit Oracle machen doch neugierig, oder?
  • DOAG APEX Connect 2015:
    Und natürlich bin ich beim Highlight des Jahres für alle APEX-Entwickler und solche, die es werden wollen, mit dabei. Die APEX Connect ist die erste reine APEX-Konferenz im deutschsprachigen Raum: Zwei Tage lang nur APEX und sonst nix.

17. März 2015

String-Operationen auf CLOBs - richtig schnell machen!

Making string operations on a CLOB really fast
Dieses Blog Posting behandelt das Thema CLOB, Stringoperationen und PL/SQL - es geht um verschiedene Varianten, wie man mit einer PL/SQL Prozedur, per Zeichenverkettung, einen CLOB zusammenbauen kann. Das kommt in der Praxis ja gar nicht so selten vor. Interessant ist, dass die Performance je nach gewähltem Ansatz wirklich völlig verschieden sein kann. In meinem Beispiel braucht - bei gleichen Datenmengen - die langsamste Methode über 4 Minuten, wogegen die schnellste in 0.2 Sekunden fertig ist.
Zunächst zur Aufgabe: Die etwa 920.000 Zeilen der Demotabelle SALES im Schema SH ...
SQL> select * from sh.sales 

PROD_ID CUST_ID TIME_ID             CHANNEL_ID PROMO_ID QUANTITY_SOLD AMOUNT_SOLD
------- ------- ------------------- ---------- -------- ------------- -----------
     13     987 10.01.1998 00:00:00          3      999             1        1232
     13    1660 10.01.1998 00:00:00          3      999             1        1232
     13    1762 10.01.1998 00:00:00          3      999             1        1232
     13    1843 10.01.1998 00:00:00          3      999             1        1232
     13    1948 10.01.1998 00:00:00          3      999             1        1232
     13    2273 10.01.1998 00:00:00          3      999             1        1232
      :       :                   :          :        :             :           : 
... sollen, semikolon-separiert, in einen CLOB geladen werden.
13;987;10.01.1998 00:00:00;3;999;1;1232,16
13;1660;10.01.1998 00:00:00;3;999;1;1232,16
13;1762;10.01.1998 00:00:00;3;999;1;1232,16
13;1843;10.01.1998 00:00:00;3;999;1;1232,16
13;1948;10.01.1998 00:00:00;3;999;1;1232,16
:
Damit die Tests nicht so lange dauern, beschränke ich mich bei meinen Tests auf die ersten 10.000 Zeilen. Der erste Versuch ist der naivste, ganz einfach "herunterprogrammiert": Ein impliziter Cursor wird geöffnet und in der Cursor-Loop wird der CLOB Schritt für Schritt zusammenkonkateniert. Man kann das mit einen CLOB tatsächlich genauso machen wie mit einem VARCHAR2.
declare
  l_clob clob := '';
begin
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
   l_clob := l_clob || to_char(i.PROD_ID) || ';' || 
                       to_char(i.CUST_ID) || ';' ||  
                       to_char(i.TIME_ID) || ';' ||  
                       to_char(i.CHANNEL_ID) || ';' || 
                       to_char(i.PROMO_ID) || ';' || 
                       to_char(i.QUANTITY_SOLD) || ';' || 
                       to_char(i.AMOUNT_SOLD)|| chr(10);
  end loop;
  dbms_output.put_line(length(l_clob));
  dbms_output.put_line(substr(l_clob, 1, 400));
end;
/
sho err
Da wir schon im Vorfeld wissen, dass das Ergebnis größer als 32.767 Byte sein wird, ist die Variable l_clob nicht vom Typ VARCHAR2, sondern CLOB. Trotzdem kann man in PL/SQL, ganz normal, mit dem || zur Zeichenverkettung arbeiten. Allerdings läuft diese Prozedur lange - allein für 10.000 Zeilen braucht sie etwa 4 Minuten. Über die Laufzeit für alle 920.000 Zeilen möchte ich gar nicht nachdenken.
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:04:23.60
Anhand der Data Dictionary-View V$TEMPORARY_LOBS kann man feststellen, dass, während die Prozedur läuft, temporäre LOBs entstehen. Ein temporärer LOB ist ein LOB-Objekt, was nicht in einer Tabelle liegt, sondern nur transient existiert - beispielsweise in einer PL/SQL-Variable. Ein LOB ist immer persistent - in einer Tabelle - oder temporär.
SQL> select * from v$temporary_lobs

       SID CACHE_LOBS NOCACHE_LOBS ABSTRACT_LOBS
---------- ---------- ------------ -------------
        20          0            0             0
        38          0            0             0
       272          6            0             0
Tatsächlich läuft obiger Code nicht optimal. Vor allem das Anhängen der einzelnen Tabellenspalten an den CLOB sorgt dafür, dass sehr viele Konvertierungen von VARCHAR2 nach CLOB stattfinden, und dass sehr viele LOB-Operationen erfolgen. Generell ist das Anhängen eines Strings an einen CLOB wesentlich teurer als an einen VARCHAR2 - hier der Beweis: Zunächst 30.000 Zeichenverkettungen auf einem CLOB ...
declare
  v_result clob;
begin
  for i in 1..30000 loop
    v_result := v_result || '*';
  end loop;
end;
/

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:00:00.56
... dann 30.000 Zeichenverkettungen mit einem VARCHAR2 ...
declare
  v_result varchar2(32000);
begin
  for i in 1..30000 loop
    v_result := v_result || '*';
  end loop;
end;
/

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:00:00.01
Das scheint zumindest etwa der Faktor 60 zu sein; wenn nicht sogar noch mehr. Der nächste Schritt wäre also, dafür zu sorgen, dass unser Code weniger LOB-Verkettungen und mehr VARCHAR2-Verkettungen macht. Das ist auch ganz einfach: Eine Tabellenzeile wird zuerst in eine Variable vom Typ VARCHAR2 geladen und erst dann an den CLOB angehängt ...
declare
  l_clob clob := '';
  l_str  varchar2(32000);
begin
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    l_clob := l_clob || l_str;
  end loop;
  dbms_output.put_line(length(l_clob));
  dbms_output.put_line(substr(l_clob, 1, 400));
end;
/
sho err
Das Ergebnis kann sich sehen lassen ...
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:00:01.61
Damit sind wir von 4 Minuten auf 2 Sekunden herunter - das ist stark. Die ganze Datenmenge von 920.000 Zeilen wird dann also etwa 3 Minuten brauchen. Man kann sogar schon nachdenken, hier aufzuhören ... aber wir sind noch nicht fertig.
Wieder schauen wir in die Dictionary View V$TEMPORARY_LOBS, und diesmal zeigt sie nur noch zwei temporäre LOBs an (vorher waren es sechs). Wenn man aber genauer nachdenkt, so müsste einer eigentlich ausreichen. Es braucht einen einzigen temporären LOB (für das Ergebnis); an den wird alles angehängt. Der PL/SQL Code braucht aber zwei. Nun, im PL/SQL-Code haben wir die Syntax für VARCHAR2 verwendet und es der Engine überlassen, das korrekt auf den CLOB anzuwenden. Machen wir die Arbeit doch mal selbst: Alle Zeichenoperationen, die auf dem CLOB stattfinden, sind nun mit dem Paket DBMS_LOB realisiert. Außerdem legen wir unseren temporären LOB (ebenfalls mit DBMS_LOB) selbst an.
declare
  l_clob clob := '';
  l_str  varchar2(32000);
begin
  dbms_lob.createtemporary(l_clob, true, dbms_lob.call);
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    dbms_lob.writeappend(l_clob, length(l_str), l_str);
  end loop;
  dbms_output.put_line(dbms_lob.getlength(l_clob));
  dbms_output.put_line(dbms_lob.substr(l_clob, 400, 1));
end;
/
sho err
Wieder gibt es eine Verbesserung. Der Mehraufwand für die "Übersetzung" der Stringoperationen auf das manchmal umständliche DBMS_LOB hat sich gelohnt: Nochmals Faktor 4.
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:00:00.35
Kann man noch mehr rausholen? Ja, es geht noch was: Wir haben festgestellt, dass eine Zeichenverkettung für einen LOB wesentlich teurer ist als für ein VARCHAR2. Derzeit bauen wir eine Tabellenzeile als VARCHAR2 zusammen und hängen sie an den CLOB an. Wir haben also soviele LOB-Operationen, wie es Tabellenzeilen gibt. Nun könnte man aber doch mehrere Tabellenzeilen zu einem VARCHAR2 zusammenfassen und die LOB-Operation erst dann machen, wenn der VARCHAR2 "Puffer" mit 32.000 Bytes "voll" ist. In Code sieht das so aus:
declare
  l_clob  clob := '';
  l_str   varchar2(32000) := '';
  l_block varchar2(32000) := '';
begin
  dbms_lob.createtemporary(l_clob, true, dbms_lob.call);
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    if length(l_block) + length(l_str) > 32000 then
      dbms_lob.writeappend(l_clob, length(l_block), l_block);
      l_block := '';
    end if;
    l_block := l_block || l_str;
  end loop;
  dbms_lob.writeappend(l_clob, length(l_block), l_block);
  dbms_output.put_line(dbms_lob.getlength(l_clob));
  dbms_output.put_line(dbms_lob.substr(l_clob, 400, 1));
end;
/
sho err
Das war Mehraufwand ... aber es hat sich tatsächlich nochmal gelohnt.
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL-Prozedur erfolgreich abgeschlossen.

Abgelaufen: 00:00:00.13
Und damit wäre ich am Optimierungsende angekommen. Es ist schon erstaunlich, was man mit geschicktem Coding herausholen kann. Bei dieser Prozedur traue ich mich nun, die ROWNUM-Beschränkung herauszuholen und den CLOB für die ganze Tabelle generieren zu lassen - der 39MB große CLOB ist in 6 Sekunden erzeugt. Es zeigt sich deutlich, dass, beim Arbeiten mit LOBs, am PL/SQL Paket DBMS_LOB kein Weg vorbeiführt.
Viel Spaß beim Ausprobieren ...
This blog posting is about the CLOB datatype, string operations and PL/SQL. I will elaborate about four different methods to "build" a CLOB from table data with PL/SQL. For 10000 rows, the execution time will vary from 4 Minutes to 0.2 seconds. If you want to know, why the DBMS_LOB package is so important and how to make string operations on CLOB variables really fast, read on.
The exercise: We want to build a CLOB, containing semicolon-separated data, from the well-known demo table SALES within the schema SH. This table contains about 920000 rows.
SQL> select * from sh.sales 

PROD_ID CUST_ID TIME_ID             CHANNEL_ID PROMO_ID QUANTITY_SOLD AMOUNT_SOLD
------- ------- ------------------- ---------- -------- ------------- -----------
     13     987 10.01.1998 00:00:00          3      999             1        1232
     13    1660 10.01.1998 00:00:00          3      999             1        1232
     13    1762 10.01.1998 00:00:00          3      999             1        1232
     13    1843 10.01.1998 00:00:00          3      999             1        1232
     13    1948 10.01.1998 00:00:00          3      999             1        1232
     13    2273 10.01.1998 00:00:00          3      999             1        1232
      :       :                   :          :        :             :           : 
Our result will look like this:
13;987;10.01.1998 00:00:00;3;999;1;1232,16
13;1660;10.01.1998 00:00:00;3;999;1;1232,16
13;1762;10.01.1998 00:00:00;3;999;1;1232,16
13;1843;10.01.1998 00:00:00;3;999;1;1232,16
13;1948;10.01.1998 00:00:00;3;999;1;1232,16
:
To save some time, I will start with focusing on the first 10000 rows. We'll run our procedure for the full dataset, when we have found the most efficient approach. Our first approach: We'll loop using an implicit cursor and use PL/SQL string concatenation operators in order to build the CLOB (as we would do for VARCHAR2). Pretty simple.
declare
  l_clob clob := '';
begin
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
   l_clob := l_clob || to_char(i.PROD_ID) || ';' || 
                       to_char(i.CUST_ID) || ';' ||  
                       to_char(i.TIME_ID) || ';' ||  
                       to_char(i.CHANNEL_ID) || ';' || 
                       to_char(i.PROMO_ID) || ';' || 
                       to_char(i.QUANTITY_SOLD) || ';' || 
                       to_char(i.AMOUNT_SOLD)|| chr(10);
  end loop;
  dbms_output.put_line(length(l_clob));
  dbms_output.put_line(substr(l_clob, 1, 400));
end;
/
sho err
We already know that our result will be larger than 32767 bytes. So we cannot use a VARCHAR2, we must use CLOB as datatype for the variable l_clob. But we can use "normal" PL/SQL string concatenation syntax, though. For 10000 rows, this procedure takes about 4 Minutes - which is long. I don't even want to think about the time needed for the whole table ...
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL procedure successfully completed.

Elapsed: 00:04:23.60
While the procedure runs, it's worthful to have a look into the V$TEMPORARY_LOBS data dictionary view. You'll see that your database session creates some temporary lobs.
SQL> select * from v$temporary_lobs

       SID CACHE_LOBS NOCACHE_LOBS ABSTRACT_LOBS
---------- ---------- ------------ -------------
        20          0            0             0
        38          0            0             0
       272          6            0             0
Let's get this straight: This code is far away from being optimal. All these string concatenation operations on the CLOB variable lead to (too) many temporary lobs being created. And string concatenations on CLOBs are, in general, far more expensive then on VARCHAR2s. Try it out: Here are 30000 string concatenations on a CLOB ...
declare
  v_result clob;
begin
  for i in 1..30000 loop
    v_result := v_result || '*';
  end loop;
end;
/

PL/SQL procedure successfully completed.

Elapsed: 00:00:00.56
... and here is the same on a VARCHAR2:
declare
  v_result varchar2(32000);
begin
  for i in 1..30000 loop
    v_result := v_result || '*';
  end loop;
end;
/

PL/SQL procedure successfully completed.

Elapsed: 00:00:00.01
That is at least factor 50 to 60. So, our next step must be to eliminate string concatenations on the CLOB. This is more easy than you might think: We can build a VARCHAR2 for a complete table row and finally append this (full row) to the CLOB.
declare
  l_clob clob := '';
  l_str  varchar2(32000);
begin
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    l_clob := l_clob || l_str;
  end loop;
  dbms_output.put_line(length(l_clob));
  dbms_output.put_line(substr(l_clob, 1, 400));
end;
/
sho err
The result is nothing less than impressive ...
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL procedure successfully completed.

Elapsed: 00:00:01.61
We are down from 4 Minutes to 2 seconds; just with a very tiny code adjustment. For the complete dataset of 920000 rows, we now have to expect an execution time of about 3 minutes. But we are not finished here - the story continues ...
Again, we have a look into V$TEMPORARY_LOBS, while the procedure is running. It shows us that two temporary LOBs are in use. But we really need only one temporary LOB and nothing more. Why? Because our result (which is a CLOB) must be hold as temporary LOB; all other temporary content can be handled as VARCHAR2. Since we used plain PL/SQL string operations, we left it up to the engine, how these operations are to be exeucuted on the CLOB. Thus, in our third approach, we'll do the job ourselves: All string operations are now done with the procedures and functions of the DBMS_LOB package. And ... we'll also create the temporary LOB explicitly and ourselves.
declare
  l_clob clob := '';
  l_str  varchar2(32000);
begin
  dbms_lob.createtemporary(l_clob, true, dbms_lob.call);
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    dbms_lob.writeappend(l_clob, length(l_str), l_str);
  end loop;
  dbms_output.put_line(dbms_lob.getlength(l_clob));
  dbms_output.put_line(dbms_lob.substr(l_clob, 400, 1));
end;
/
sho err
Using this obscure DBMS_LOB package seems to pay off: Performance improvement by factor 4.
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL procedure successfully completed.

Elapsed: 00:00:00.35
That's all ...? No, we can get even better: We have learned, that a string operation on a CLOB is far more expensive than on a VARCHAR2. Now, we build each table row as VARCHAR2 and append it to the CLOB. So we have as many CLOB concatenations as there are table rows. But we could also aggregate multiple table rows into the VARCHAR2, up to its limit of 32000 bytes. When the VARCHAR buffer is full, we append it to the CLOB and start again. Translated to code, this looks as follows ...
declare
  l_clob  clob := '';
  l_str   varchar2(32000) := '';
  l_block varchar2(32000) := '';
begin
  dbms_lob.createtemporary(l_clob, true, dbms_lob.call);
  for i in (
    select * from sh.sales where rownum <= 10000
  ) loop
    l_str := to_char(i.PROD_ID) || ';' || 
             to_char(i.CUST_ID) || ';' ||  
             to_char(i.TIME_ID) || ';' ||  
             to_char(i.CHANNEL_ID) || ';' || 
             to_char(i.PROMO_ID) || ';' || 
             to_char(i.QUANTITY_SOLD) || ';' || 
             to_char(i.AMOUNT_SOLD)|| chr(10);
    if length(l_block) + length(l_str) > 32000 then
      dbms_lob.writeappend(l_clob, length(l_block), l_block);
      l_block := '';
    end if;
    l_block := l_block || l_str;
  end loop;
  dbms_lob.writeappend(l_clob, length(l_block), l_block);
  dbms_output.put_line(dbms_lob.getlength(l_clob));
  dbms_output.put_line(dbms_lob.substr(l_clob, 400, 1));
end;
/
sho err
It's faster - again.
426038
13;987;10.01.1998 00:00:00;3;999;1;1232,16
:
13;2683;10.01.1998 00:00:00;3;999;1;1232,16
13;2865;10.01.1998 00:00:00;3;999;1;1232,16
13;46

PL/SQL procedure successfully completed.

Elapsed: 00:00:00.13
And this is the end of the optimization. These differences are stunning: We started with 4 minutes and came down to 0.2 seconds; which is a factor of 1200. Now, I'm totally relaxed when running the code for whole table of 920000 rows - the CLOB of 39MB is being build in just 6 seconds. As so often, the first and "most easy" approach isn't the best: When it's about working with CLOBs, there is now way around the (kind of obscure) DBMS_LOB package. Getting familiar with it, is (as we see) absolutely worth the effort ...
As always - habe a lot of fun while playing with this ...

19. Februar 2015

Installation von "node-oracledb": Node.js und die Oracle-Datenbank

External calls as a different Unix user: DBMS_SCHEDULER or Java?
Letztes Jahr im Herbst hatte ich bereits ein Blog Posting zum Thema Node.js und die Oracle-Datenbank veröffentlicht. Als Datenbanktreiber hatte ich den Open-Source Treiber von Joe Ferner hergenommen, da es von Oracle noch keinen gab. Das hat sich nun geändert - der "offizielle" node.js-Treiber von Oracle ist Seit Januar auf GitHub verfügbar. Stand heute steht die Early Adopter Version 0.3.1 zum Download bereit.
In diesem Blog Posting beschreibe ich die Installation und ein erstes node.js-Programm - durchaus auch für solche Entwickler, die bislang noch nicht mit node.js garbeitet haben. Während der Installation von node-oracledb wird etwas kompiliert; die dazu nötigen Compiler sind auf einem Linux-System out-of-the-box enthalten; auf Windows muss eine C/C++ Compilerumgebung (etwa Microsoft Visual Studio 2013) installiert sein. Ich habe ein Linux-System verwendet; da dort alles bereits vorhanden ist.

Zutaten

Ihr braucht folgende Software-Downloads
  • Auf eurem Rechner muss eine Python-Version zwischen 2.5 und 3.0 installiert sein. Python wird benötigt, um den Oracle-Treiber node-oracledb zu kompilieren und zu installieren. Zur Installation von Python ist reichlich Material verfügbar; im folgenden wird also davon ausgegangen, dass Python installiert ist.
  • Node.js selbst - Download von www.nodejs.org. Am einfachsten ist es, Ihr ladet euch das tar.gz File herunter; damit gelingt die Installation überall und auch ohne "Root"-Privilegien. Nehmt im Augenblick nicht die jüngste Version 0.12.0 (mit der läuft node-oracledb noch nicht), sondern 0.10.36.
  • node-oracledb - den bekommt Ihr entweder vom OTN Node.js Developer Center oder von Github.
  • node-oracledb setzt einen Oracle-Client voraus. Am einfachsten ist die Installation des Instant Client. Den bekommt Ihr aus dem OTN: Oracle Database Instant Client. Wichtig: Ihr müsst hier zwei Pakete herunterladen: Instantclient-Basic und Instantclient-SDK.

Los geht's: Herunterladen und auspacken

Nach dem Download sollten diese Dateien in eurem Verzeichnis sein,
$ ls -lah
total 67M
-rw-r--r--  1 oracle oinstall  61M Feb 19 12:54 instantclient-basic-linux.x64-12.1.0.2.0.zip
-rw-r--r--  1 oracle oinstall 652K Feb 19 12:54 instantclient-sdk-linux.x64-12.1.0.2.0.zip
-rw-r--r--  1 oracle oinstall 103K Feb 19 12:54 node-oracledb-master.zip
-rw-r--r--  1 oracle oinstall 5.5M Feb 19 12:54 node-v0.10.36-linux-x64.tar.gz
[oracle@sccloud037 node-download]$
Nun alles auspacken.
$ tar -xzf node-v0.10.36-linux-x64.tar.gz
$ unzip -q node-oracledb-master.zip
$ unzip -q instantclient-basic-linux.x64-12.1.0.2.0.zip
$ unzip -q instantclient-sdk-linux.x64-12.1.0.2.0.zip
$ ls -lahd */

drwxr-xr-x  3 oracle oinstall 4.0K Feb 19 12:56 instantclient_12_1
drwxr-xr-x  6 oracle oinstall 4.0K Feb 16 18:32 node-oracledb-master
drwxr-xr-x  6 oracle oinstall 4.0K Jan 26 20:33 node-v0.10.36-linux-x64

Initiale Einrichtung

Zunächst ist es hilfreich, sich einige Umgebnungsvariablen zu setzen, damit die node.js Executables node und npm immer verfügbar sind. Am besten baut Ihr euch ein kleines Skript dazu. Für node.js selbst muss PATH gesetzt werden, für unsere Arbeit mit der Oracle-Datenbank braucht es auch LD_LIBRARY_PATH (achtet darauf, die Pfade an eure Umgebung anzupassen).
#!/bin/sh
export PATH=/path/to/node-v0.10.36-linux-x64/bin:$PATH
export LD_LIBRARY_PATH=/path/to/instantclient_12_1:$LD_LIBRARY_PATH

echo "**** node.js environment set ***"

node -v
Dieses Skript dann einfach wie folgt aufrufen.
$ . sh node-env.sh
**** node.js environment set ***
v0.10.36
Als nächstes braucht es eine Arbeitsumgebung. Das ist ein ganz normales Verzeichnis; nennen wir es work. Darin werden die node.js-Skripte (.js-Dateien) liegen. Unterhalb von work legt Ihr dann noch ein Verzeichnis namens node_modules an. In dieses werden dann später die zusätzlichen node.js Pakete gelegt (der Oracle-Datenbanktreiber ebenfalls).

Oracle-Treiber "node-oracledb" aufsetzen

Nun muss der Oracle-Treiber node-oracledb installiert werden - die folgenden Schritte sind einmalig; zum späteren Ausführen der node.js-Programme sind sie nichr mehr nötig.
  • Setzt die Umgebungsvariablen OCI_LIB_DIR und OCI_INC_DIR
    $ export OCI_LIB_DIR=/path/to/instantclient_12_1
    $ export OCI_INC_DIR=/path/to/instantclient_12_1/sdk/include
    
  • Im Verzeichnis des Oracle Instant Client wird eine Datei unter einem anderen Namen erwartet. Kopiert also die Datei libclntsh.so.12.1 nach libclntsh.so (oder legt einen symbolischen Link an).
    cd /path/to/instantclient_12_1
    ln -s libclntsh.so.12.1 libclntsh.so
    
  • Wechselt nun ins Verzeichnis, in das Ihr den Treiber node-oracledb ausgepackt habt und kompiliert diesen mit npm install.
    $ cd /path/to/node-oracledb-master
    $ npm install
    
    > oracledb@0.3.1 install /path/to/node-oracledb-master
    > node-gyp rebuild
    
    make: Entering directory `/path/to/node-oracledb-master/build'
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsOracle.o
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsPool.o
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsConnection.o
    
      :
    
      COPY Release/oracledb.node
    make: Leaving directory `/path/to/node-oracledb-master/build'
    $
    
  • Nun benennt Ihr das Verzeichnis node-oracledb-master nach oracledb um und verschiebt es in den Ordner node_modules eures bereits angelegten Arbeitsverzeichnisses.
Damit sind wir fertig. Die Verzeichnisstruktur sieht damit wie folgt aus.
Die Datei emp.js ist das erste node.js Programm. Es soll eine Zeile aus der Tabelle EMP lesen und auf der Konsole ausgeben. Der Code ist der folgende.
var oracledb = require('oracledb');

function showEmp(conn) {
    conn.action = "Action EMP";
    conn.module = "Node.js Module EMP";
    console.log("... and here is THE KING");
    conn.execute(
      "SELECT * from EMP where EMPNO = 7839",
      [],
      function(err, result)
      {
        if (err) {
          console.log('%s', err.message);
          return;
        }
        console.log(result.rows);
      });
  }

oracledb.getConnection(
  {
    user          : "scott",
    password      : "tiger",
    connectString : "datenbank-server:1521/service-name"
  },
  function(err, connection)
  {
    if (err) {
      console.error(err.message);
      return;
    }
    showEmp(connection);
  }
);

console.log("Finished. Really????");
Den Connection-String, Usernamen und Passwort in den Zeilen 22 bis 24 müsst Ihr natürlich an eure Umgebung anpassen. Wenn Ihr das Skript dann startet, seht ihr folgende Ausgabe.
$ node emp.js
Finished. Really????
... and here is THE KING
[ [ 7839,
    'KING',
    'PRESIDENT',
    null,
    Tue Nov 17 1981 00:00:00 GMT+0100 (CET),
    5000,
    null,
    10 ] ]
Dass Ihr die Ausgabe Finished ... zuerst sieht, liegt an der asynchronen Natur von node.js - das ist unter anderem hier und an vielen anderen Stellen im Internet beschrieben. Darauf aufbauend, lassen sich nun viele Dinge mit node.js und der Oracle-Datenbank realisieren. Einige Beispiele wurden im Oracle-Webinar am 10. Februar vorgestellt und stehen auf apex.oracle.com/folien zum Download bereit.
Viel Spaß beim Ausprobieren.
In September 2014, I had a blog posting about Node.js and the Oracle database. In that posting, I used the Open Source Oracle Driver authored by Joe Ferner, since Oracle did not provide one. In the meantime, this has changed: There is an "official" node.js driver available from Oracle - it's called node-oracledb and is currently in the Early Adopter Stage. As of today (Feb 19th, 2015), the most recent version is 0.3.1.
In this blog posting I'll describe how to get started with node-oracledb. You need to perform a few steps for installation but it isn't that difficult. During installation, something will be compiled, so a compiler suite must be available on your machine. On a linux box, this is present out-of-the-box - on windows, you need to install a C/C++ build environment (such as Microsoft Visual Studio 2013) beforehand. To create this blog posting, I used a linux box.

Ingredients

You need the following software packages.
  • As a prerequisite, you need a Python installation on your machine. Its version must be at least 2.5, but lower than 3.0. Python is needed for the compilation process of node-oracledb. Since there are plenty of tutorials on installing python on a machine, I'll skip this and assume that python is present.
  • You need Node.js itself - download it from www.nodejs.org. The most easy variant is to download the tar.gz file; then you can install everywhere, and without root privileges. At the moment, don't take the latest version 0.12.0 (node-oracledb does not run on it). Choose 0.10.36 instead.
  • node-oracledb - download it either from OTN Node.js Developer Center or from Github.
  • You'll need Oracle Client libraries on your machine. The most easy approach is to use Instant Client. It is available from OTN: Oracle Database Instant Client. Important: You need to download two packages: Instantclient-Basic and Instantclient-SDK.

Let's get started: Download and extract

After downloading, you should have the following files present.
$ ls -lah
total 67M
-rw-r--r--  1 oracle oinstall  61M Feb 19 12:54 instantclient-basic-linux.x64-12.1.0.2.0.zip
-rw-r--r--  1 oracle oinstall 652K Feb 19 12:54 instantclient-sdk-linux.x64-12.1.0.2.0.zip
-rw-r--r--  1 oracle oinstall 103K Feb 19 12:54 node-oracledb-master.zip
-rw-r--r--  1 oracle oinstall 5.5M Feb 19 12:54 node-v0.10.36-linux-x64.tar.gz
[oracle@sccloud037 node-download]$
Now extract everything.
$ tar -xzf node-v0.10.36-linux-x64.tar.gz
$ unzip -q node-oracledb-master.zip
$ unzip -q instantclient-basic-linux.x64-12.1.0.2.0.zip
$ unzip -q instantclient-sdk-linux.x64-12.1.0.2.0.zip
$ ls -lahd */

drwxr-xr-x  3 oracle oinstall 4.0K Feb 19 12:56 instantclient_12_1
drwxr-xr-x  6 oracle oinstall 4.0K Feb 16 18:32 node-oracledb-master
drwxr-xr-x  6 oracle oinstall 4.0K Jan 26 20:33 node-v0.10.36-linux-x64

Configure your node.js environment

It's useful to set some environment variables: The path to the node.js executables node and npm should be part of your PATH environment variable. Since we will work with the Oracle database, we'll also need to have the Oracle Client libraries within LD_LIBRARY_PATH. The following shell script does the job for you (note to adjust the paths to your environment).
#!/bin/sh
export PATH=/path/to/node-v0.10.36-linux-x64/bin:$PATH
export LD_LIBRARY_PATH=/path/to/instantclient_12_1:$LD_LIBRARY_PATH

echo "**** node.js environment set ***"

node -v
Then call the script as follows.
$ . sh node-env.sh
**** node.js environment set ***
v0.10.36
Next, you'll need a working directory; this is a simple folder called work. In this folder we'll place our node.js scripts. Also within work, you need a subdirectory node_modules. This will hold all additional node.js packages - node-oracledb will be placed there as well. The following image illustrates the folder structure.

Install "node-oracledb"

Now we'll install the node-oracledb driver in our node.js environment. These installation steps are only to be executed once.
  • Create two environment variables: OCI_LIB_DIR and OCI_INC_DIR
    $ export OCI_LIB_DIR=/path/to/instantclient_12_1
    $ export OCI_INC_DIR=/path/to/instantclient_12_1/sdk/include
    
  • The Oracle Instant Client folder contains a file named libclntsh.so.12.1. Node.js expects it under the name libclntsh.so. So create either a copy or a symbolic link.
    cd /path/to/instantclient_12_1
    ln -s libclntsh.so.12.1 libclntsh.so
    
  • Now change to the folder which has been created by extracting the downloaded file node-oracledb-master.zip. Compile the driver using npm install.
    $ cd /path/to/node-oracledb-master
    $ npm install
    
    > oracledb@0.3.1 install /path/to/node-oracledb-master
    > node-gyp rebuild
    
    make: Entering directory `/path/to/node-oracledb-master/build'
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsOracle.o
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsPool.o
      CXX(target) Release/obj.target/oracledb/src/njs/src/njsConnection.o
    
      :
    
      COPY Release/oracledb.node
    make: Leaving directory `/path/to/node-oracledb-master/build'
    $
    
  • After that, rename this folder from node-oracledb-master to oracledb and then move it into the node_modules folder in your already created directory work.
Then you are finished. Your folder structure should look like this:
You now can create an run node.js scripts working with the Oracle Database. The followng file emp.js is our first node.js Program - it is supposed to select one row from the EMP table and to print it to the console.
var oracledb = require('oracledb');

function showEmp(conn) {
    conn.action = "Action EMP";
    conn.module = "Node.js Module EMP";
    console.log("... and here is THE KING");
    conn.execute(
      "SELECT * from EMP where EMPNO = 7839",
      [],
      function(err, result)
      {
        if (err) {
          console.log('%s', err.message);
          return;
        }
        console.log(result.rows);
      });
  }

oracledb.getConnection(
  {
    user          : "scott",
    password      : "tiger",
    connectString : "datenbank-server:1521/service-name"
  },
  function(err, connection)
  {
    if (err) {
      console.error(err.message);
      return;
    }
    showEmp(connection);
  }
);

console.log("Finished. Really????");
Of course, you must adjust the connection string, username and password in lines 22 to 24 to your environment. After that, run the script by typing node emp.js and see its results.
$ node emp.js
Finished. Really????
... and here is THE KING
[ [ 7839,
    'KING',
    'PRESIDENT',
    null,
    Tue Nov 17 1981 00:00:00 GMT+0100 (CET),
    5000,
    null,
    10 ] ]
You'll recognize that the output Finished ... comes first and the table contents afterwards. This is due to the asychronous nature of node.js. I'll not elaborate on this within that blog posting - as always, there are plenty of tutorials which describe this behaviour much better than I am able to. Based on this, you can start building applications or services with Node.js and the Oracle Database. Some examples have been introduced in a german Webinar at Feb 10th, 2015. This sample code can be downloaded from apex.oracle.com/folien.
Have fun!

3. Februar 2015

"node-oracledb"-Treiber für Node.js: Webseminar am 10. Februar

This blog posting is about the upcoming webinar on the Oracle Database and "node.js" and therefore in German only. After the webinar I'll post some code snippets and tutorials in both english and german language.
Letztes Jahr im Herbst hatte ich bereits ein Blog Posting zum Thema Node.js und die Oracle-Datenbank veröffentlicht. Als Datenbanktreiber hatte ich den Open-Source Treiber von Joe Ferner hergenommen, da es von Oracle noch keinen gab.
Das hat sich nun geändert - der node.js-Treiber von Oracle ist auf GitHub als Early Adopter Version (0.2) verfügbar. Diesen stelle ich in einem Webseminar am 10. Februar um 11:00 Uhr vor. Mehr Details zur Einwahl findet Ihr auf der Webseite des Oracle Developer Monthly.
Vorgestellt werden Node.js selbst, der Treiber für die Oracle-Datenbank, dessen Installation und einige Code-Beispiele (Einfacher REST Service, IMAP-Integration mit der Datenbank, HTML5-Websocket-Beispiel).
Nach dem Webcast wird ein weiteres Blog Posting mit mehr Details zur Installation und Nutzung des node.js Treibers geben. Bis dahin (für die, die es nicht erwarten können) hier ein wenig Code: Das folgende Beispiel implementiert einen sehr einfachen REST Webservice (nur GET) für die Tabelle EMP.
var oracledb = require('oracledb');
var express = require('express');

var pool;

//
// Diese Javascript-Funktion behandelt einen HTTP-Request /emp/*
//
function processEmp(req, res) {
  pool.getConnection(function(err, connection){
    connection.execute(
      "select * from emp where (empno=:1 or empno is null)", 
      [req.params[0]],
      function(err, results) {
        connection.release(function (err) {}),
        res.writeHead(200, {'Content-Type': 'application/json'});
        res.end(JSON.stringify(results.rows));
      }
    )
  })
}

//
// Diese Javascript-Funktion startet den Server
//
function startServer () {
  var app =  express();
  app.get ("/emp/*", processEmp);

  var server = app.listen(9000, function () {
    var host = server.address().address
    var port = server.address().port
    console.log('Table EMP REST Service listening at http://%s:%s', host, port);
  });
}

//
// Programmstart. Oracle Connection Pool und bei Erfolg den Webserver starten
//
oracledb.createPool(
  {
    user          : "scott",
    password      : "*****",
    connectString : "dbserver.mycompany.com:1521/orcl",
    poolMin       : 10,
    poolMax       : 20
  },

  function(err, ppool){
    pool = ppool;
    startServer();
  }
);
Ein solcher "Mini-Dienst" lässt sich sehr elegant mit der Visualisierungstechnologie D3js verbinden; ein sehr einfaches Beispiel sieht dann so aus:

Beliebte Postings