]> git.xonotic.org Git - xonotic/gmqcc.git/blob - lexer.c
Uchar -> uchar_t for consistency
[xonotic/gmqcc.git] / lexer.c
1 /*
2  * Copyright (C) 2012
3  *     Wolfgang Bumiller
4  *
5  * Permission is hereby granted, free of charge, to any person obtaining a copy of
6  * this software and associated documentation files (the "Software"), to deal in
7  * the Software without restriction, including without limitation the rights to
8  * use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
9  * of the Software, and to permit persons to whom the Software is furnished to do
10  * so, subject to the following conditions:
11  *
12  * The above copyright notice and this permission notice shall be included in all
13  * copies or substantial portions of the Software.
14  *
15  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
16  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
17  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
18  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
19  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
20  * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
21  * SOFTWARE.
22  */
23 #include <stdio.h>
24 #include <stdlib.h>
25 #include <string.h>
26 #include <stdarg.h>
27
28 #include "gmqcc.h"
29 #include "lexer.h"
30
31 /*
32  * List of Keywords
33  */
34
35 /* original */
36 static const char *keywords_qc[] = {
37     "for", "do", "while",
38     "if", "else",
39     "local",
40     "return",
41     "const"
42 };
43 static size_t num_keywords_qc = sizeof(keywords_qc) / sizeof(keywords_qc[0]);
44
45 /* For fte/gmgqcc */
46 static const char *keywords_fg[] = {
47     "switch", "case", "default",
48     "struct", "union",
49     "break", "continue",
50     "typedef",
51     "goto",
52
53     "__builtin_debug_printtype"
54 };
55 static size_t num_keywords_fg = sizeof(keywords_fg) / sizeof(keywords_fg[0]);
56
57 /*
58  * Lexer code
59  */
60
61 char* *lex_filenames;
62
63 void lexerror(lex_file *lex, const char *fmt, ...)
64 {
65     va_list ap;
66
67     va_start(ap, fmt);
68     if (lex)
69         con_vprintmsg(LVL_ERROR, lex->name, lex->sline, "parse error", fmt, ap);
70     else
71         con_vprintmsg(LVL_ERROR, "", 0, "parse error", fmt, ap);
72     va_end(ap);
73 }
74
75 bool lexwarn(lex_file *lex, int warntype, const char *fmt, ...)
76 {
77     bool    r;
78     lex_ctx ctx;
79     va_list ap;
80
81     ctx.file = lex->name;
82     ctx.line = lex->sline;
83
84     va_start(ap, fmt);
85     r = vcompile_warning(ctx, warntype, fmt, ap);
86     va_end(ap);
87     return r;
88 }
89
90
91 #if 0
92 token* token_new()
93 {
94     token *tok = (token*)mem_a(sizeof(token));
95     if (!tok)
96         return NULL;
97     memset(tok, 0, sizeof(*tok));
98     return tok;
99 }
100
101 void token_delete(token *self)
102 {
103     if (self->next && self->next->prev == self)
104         self->next->prev = self->prev;
105     if (self->prev && self->prev->next == self)
106         self->prev->next = self->next;
107     MEM_VECTOR_CLEAR(self, value);
108     mem_d(self);
109 }
110
111 token* token_copy(const token *cp)
112 {
113     token* self = token_new();
114     if (!self)
115         return NULL;
116     /* copy the value */
117     self->value_alloc = cp->value_count + 1;
118     self->value_count = cp->value_count;
119     self->value = (char*)mem_a(self->value_alloc);
120     if (!self->value) {
121         mem_d(self);
122         return NULL;
123     }
124     memcpy(self->value, cp->value, cp->value_count);
125     self->value[self->value_alloc-1] = 0;
126
127     /* rest */
128     self->ctx = cp->ctx;
129     self->ttype = cp->ttype;
130     memcpy(&self->constval, &cp->constval, sizeof(self->constval));
131     return self;
132 }
133
134 void token_delete_all(token *t)
135 {
136     token *n;
137
138     do {
139         n = t->next;
140         token_delete(t);
141         t = n;
142     } while(t);
143 }
144
145 token* token_copy_all(const token *cp)
146 {
147     token *cur;
148     token *out;
149
150     out = cur = token_copy(cp);
151     if (!out)
152         return NULL;
153
154     while (cp->next) {
155         cp = cp->next;
156         cur->next = token_copy(cp);
157         if (!cur->next) {
158             token_delete_all(out);
159             return NULL;
160         }
161         cur->next->prev = cur;
162         cur = cur->next;
163     }
164
165     return out;
166 }
167 #else
168 static void lex_token_new(lex_file *lex)
169 {
170 #if 0
171     if (lex->tok)
172         token_delete(lex->tok);
173     lex->tok = token_new();
174 #else
175     if (lex->tok.value)
176         vec_shrinkto(lex->tok.value, 0);
177     lex->tok.constval.t  = 0;
178     lex->tok.ctx.line = lex->sline;
179     lex->tok.ctx.file = lex->name;
180 #endif
181 }
182 #endif
183
184 lex_file* lex_open(const char *file)
185 {
186     lex_file *lex;
187     FILE *in = file_open(file, "rb");
188
189     if (!in) {
190         lexerror(NULL, "open failed: '%s'\n", file);
191         return NULL;
192     }
193
194     lex = (lex_file*)mem_a(sizeof(*lex));
195     if (!lex) {
196         file_close(in);
197         lexerror(NULL, "out of memory\n");
198         return NULL;
199     }
200
201     memset(lex, 0, sizeof(*lex));
202
203     lex->file = in;
204     lex->name = util_strdup(file);
205     lex->line = 1; /* we start counting at 1 */
206
207     lex->peekpos = 0;
208     lex->eof = false;
209
210     vec_push(lex_filenames, lex->name);
211     return lex;
212 }
213
214 lex_file* lex_open_string(const char *str, size_t len, const char *name)
215 {
216     lex_file *lex;
217
218     lex = (lex_file*)mem_a(sizeof(*lex));
219     if (!lex) {
220         lexerror(NULL, "out of memory\n");
221         return NULL;
222     }
223
224     memset(lex, 0, sizeof(*lex));
225
226     lex->file = NULL;
227     lex->open_string        = str;
228     lex->open_string_length = len;
229     lex->open_string_pos    = 0;
230
231     lex->name = util_strdup(name ? name : "<string-source>");
232     lex->line = 1; /* we start counting at 1 */
233
234     lex->peekpos = 0;
235     lex->eof = false;
236
237     vec_push(lex_filenames, lex->name);
238
239     return lex;
240 }
241
242 void lex_cleanup(void)
243 {
244     size_t i;
245     for (i = 0; i < vec_size(lex_filenames); ++i)
246         mem_d(lex_filenames[i]);
247     vec_free(lex_filenames);
248 }
249
250 void lex_close(lex_file *lex)
251 {
252     size_t i;
253     for (i = 0; i < vec_size(lex->frames); ++i)
254         mem_d(lex->frames[i].name);
255     vec_free(lex->frames);
256
257     if (lex->modelname)
258         vec_free(lex->modelname);
259
260     if (lex->file)
261         file_close(lex->file);
262 #if 0
263     if (lex->tok)
264         token_delete(lex->tok);
265 #else
266     vec_free(lex->tok.value);
267 #endif
268     /* mem_d(lex->name); collected in lex_filenames */
269     mem_d(lex);
270 }
271
272 static int lex_fgetc(lex_file *lex)
273 {
274     if (lex->file)
275         return fgetc(lex->file);
276     if (lex->open_string) {
277         if (lex->open_string_pos >= lex->open_string_length)
278             return EOF;
279         return lex->open_string[lex->open_string_pos++];
280     }
281     return EOF;
282 }
283
284 /* Get or put-back data
285  * The following to functions do NOT understand what kind of data they
286  * are working on.
287  * The are merely wrapping get/put in order to count line numbers.
288  */
289 static void lex_ungetch(lex_file *lex, int ch);
290 static int lex_try_trigraph(lex_file *lex, int old)
291 {
292     int c2, c3;
293     c2 = lex_fgetc(lex);
294     if (c2 != '?') {
295         lex_ungetch(lex, c2);
296         return old;
297     }
298
299     c3 = lex_fgetc(lex);
300     switch (c3) {
301         case '=': return '#';
302         case '/': return '\\';
303         case '\'': return '^';
304         case '(': return '[';
305         case ')': return ']';
306         case '!': return '|';
307         case '<': return '{';
308         case '>': return '}';
309         case '-': return '~';
310         default:
311             lex_ungetch(lex, c3);
312             lex_ungetch(lex, c2);
313             return old;
314     }
315 }
316
317 static int lex_try_digraph(lex_file *lex, int ch)
318 {
319     int c2;
320     c2 = lex_fgetc(lex);
321     /* we just used fgetc() so count lines
322      * need to offset a \n the ungetch would recognize
323      */
324     if (!lex->push_line && c2 == '\n')
325         lex->line++;
326     if      (ch == '<' && c2 == ':')
327         return '[';
328     else if (ch == ':' && c2 == '>')
329         return ']';
330     else if (ch == '<' && c2 == '%')
331         return '{';
332     else if (ch == '%' && c2 == '>')
333         return '}';
334     else if (ch == '%' && c2 == ':')
335         return '#';
336     lex_ungetch(lex, c2);
337     return ch;
338 }
339
340 static int lex_getch(lex_file *lex)
341 {
342     int ch;
343
344     if (lex->peekpos) {
345         lex->peekpos--;
346         if (!lex->push_line && lex->peek[lex->peekpos] == '\n')
347             lex->line++;
348         return lex->peek[lex->peekpos];
349     }
350
351     ch = lex_fgetc(lex);
352     if (!lex->push_line && ch == '\n')
353         lex->line++;
354     else if (ch == '?')
355         return lex_try_trigraph(lex, ch);
356     else if (!lex->flags.nodigraphs && (ch == '<' || ch == ':' || ch == '%'))
357         return lex_try_digraph(lex, ch);
358     return ch;
359 }
360
361 static void lex_ungetch(lex_file *lex, int ch)
362 {
363     lex->peek[lex->peekpos++] = ch;
364     if (!lex->push_line && ch == '\n')
365         lex->line--;
366 }
367
368 /* classify characters
369  * some additions to the is*() functions of ctype.h
370  */
371
372 /* Idents are alphanumberic, but they start with alpha or _ */
373 static bool isident_start(int ch)
374 {
375     return isalpha(ch) || ch == '_';
376 }
377
378 static bool isident(int ch)
379 {
380     return isident_start(ch) || isdigit(ch);
381 }
382
383 /* isxdigit_only is used when we already know it's not a digit
384  * and want to see if it's a hex digit anyway.
385  */
386 static bool isxdigit_only(int ch)
387 {
388     return (ch >= 'a' && ch <= 'f') || (ch >= 'A' && ch <= 'F');
389 }
390
391 /* Append a character to the token buffer */
392 static void lex_tokench(lex_file *lex, int ch)
393 {
394     vec_push(lex->tok.value, ch);
395 }
396
397 /* Append a trailing null-byte */
398 static void lex_endtoken(lex_file *lex)
399 {
400     vec_push(lex->tok.value, 0);
401     vec_shrinkby(lex->tok.value, 1);
402 }
403
404 static bool lex_try_pragma(lex_file *lex)
405 {
406     int ch;
407     char *pragma  = NULL;
408     char *command = NULL;
409     char *param   = NULL;
410     size_t line;
411
412     if (lex->flags.preprocessing)
413         return false;
414
415     line = lex->line;
416
417     ch = lex_getch(lex);
418     if (ch != '#') {
419         lex_ungetch(lex, ch);
420         return false;
421     }
422
423     for (ch = lex_getch(lex); vec_size(pragma) < 8 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
424         vec_push(pragma, ch);
425     vec_push(pragma, 0);
426
427     if (ch != ' ' || strcmp(pragma, "pragma")) {
428         lex_ungetch(lex, ch);
429         goto unroll;
430     }
431
432     for (ch = lex_getch(lex); vec_size(command) < 32 && ch >= 'a' && ch <= 'z'; ch = lex_getch(lex))
433         vec_push(command, ch);
434     vec_push(command, 0);
435
436     if (ch != '(') {
437         lex_ungetch(lex, ch);
438         goto unroll;
439     }
440
441     for (ch = lex_getch(lex); vec_size(param) < 1024 && ch != ')' && ch != '\n'; ch = lex_getch(lex))
442         vec_push(param, ch);
443     vec_push(param, 0);
444
445     if (ch != ')') {
446         lex_ungetch(lex, ch);
447         goto unroll;
448     }
449
450     if (!strcmp(command, "push")) {
451         if (!strcmp(param, "line")) {
452             lex->push_line++;
453             if (lex->push_line == 1)
454                 --line;
455         }
456         else
457             goto unroll;
458     }
459     else if (!strcmp(command, "pop")) {
460         if (!strcmp(param, "line")) {
461             if (lex->push_line)
462                 lex->push_line--;
463             if (lex->push_line == 0)
464                 --line;
465         }
466         else
467             goto unroll;
468     }
469     else if (!strcmp(command, "file")) {
470         lex->name = util_strdup(param);
471         vec_push(lex_filenames, lex->name);
472     }
473     else if (!strcmp(command, "line")) {
474         line = strtol(param, NULL, 0)-1;
475     }
476     else
477         goto unroll;
478
479     lex->line = line;
480     while (ch != '\n' && ch != EOF)
481         ch = lex_getch(lex);
482     return true;
483
484 unroll:
485     if (command) {
486         vec_pop(command);
487         while (vec_size(command)) {
488             lex_ungetch(lex, vec_last(command));
489             vec_pop(command);
490         }
491         vec_free(command);
492         lex_ungetch(lex, ' ');
493     }
494     if (command) {
495         vec_pop(command);
496         while (vec_size(command)) {
497             lex_ungetch(lex, vec_last(command));
498             vec_pop(command);
499         }
500         vec_free(command);
501         lex_ungetch(lex, ' ');
502     }
503     if (pragma) {
504         vec_pop(pragma);
505         while (vec_size(pragma)) {
506             lex_ungetch(lex, vec_last(pragma));
507             vec_pop(pragma);
508         }
509         vec_free(pragma);
510     }
511     lex_ungetch(lex, '#');
512
513     lex->line = line;
514     return false;
515 }
516
517 /* Skip whitespace and comments and return the first
518  * non-white character.
519  * As this makes use of the above getch() ungetch() functions,
520  * we don't need to care at all about line numbering anymore.
521  *
522  * In theory, this function should only be used at the beginning
523  * of lexing, or when we *know* the next character is part of the token.
524  * Otherwise, if the parser throws an error, the linenumber may not be
525  * the line of the error, but the line of the next token AFTER the error.
526  *
527  * This is currently only problematic when using c-like string-continuation,
528  * since comments and whitespaces are allowed between 2 such strings.
529  * Example:
530 printf(   "line one\n"
531 // A comment
532           "A continuation of the previous string"
533 // This line is skipped
534       , foo);
535
536  * In this case, if the parse decides it didn't actually want a string,
537  * and uses lex->line to print an error, it will show the ', foo);' line's
538  * linenumber.
539  *
540  * On the other hand, the parser is supposed to remember the line of the next
541  * token's beginning. In this case we would want skipwhite() to be called
542  * AFTER reading a token, so that the parser, before reading the NEXT token,
543  * doesn't store teh *comment's* linenumber, but the actual token's linenumber.
544  *
545  * THIS SOLUTION
546  *    here is to store the line of the first character after skipping
547  *    the initial whitespace in lex->sline, this happens in lex_do.
548  */
549 static int lex_skipwhite(lex_file *lex, bool hadwhite)
550 {
551     int ch = 0;
552     bool haswhite = hadwhite;
553
554     do
555     {
556         ch = lex_getch(lex);
557         while (ch != EOF && isspace(ch)) {
558             if (ch == '\n') {
559                 if (lex_try_pragma(lex))
560                     continue;
561             }
562             if (lex->flags.preprocessing) {
563                 if (ch == '\n') {
564                     /* end-of-line */
565                     /* see if there was whitespace first */
566                     if (haswhite) { /* (vec_size(lex->tok.value)) { */
567                         lex_ungetch(lex, ch);
568                         lex_endtoken(lex);
569                         return TOKEN_WHITE;
570                     }
571                     /* otherwise return EOL */
572                     return TOKEN_EOL;
573                 }
574                 haswhite = true;
575                 lex_tokench(lex, ch);
576             }
577             ch = lex_getch(lex);
578         }
579
580         if (ch == '/') {
581             ch = lex_getch(lex);
582             if (ch == '/')
583             {
584                 /* one line comment */
585                 ch = lex_getch(lex);
586
587                 if (lex->flags.preprocessing) {
588                     haswhite = true;
589                     /*
590                     lex_tokench(lex, '/');
591                     lex_tokench(lex, '/');
592                     */
593                     lex_tokench(lex, ' ');
594                     lex_tokench(lex, ' ');
595                 }
596
597                 while (ch != EOF && ch != '\n') {
598                     if (lex->flags.preprocessing)
599                         lex_tokench(lex, ' '); /* ch); */
600                     ch = lex_getch(lex);
601                 }
602                 if (lex->flags.preprocessing) {
603                     lex_ungetch(lex, '\n');
604                     lex_endtoken(lex);
605                     return TOKEN_WHITE;
606                 }
607                 continue;
608             }
609             if (ch == '*')
610             {
611                 /* multiline comment */
612                 if (lex->flags.preprocessing) {
613                     haswhite = true;
614                     /*
615                     lex_tokench(lex, '/');
616                     lex_tokench(lex, '*');
617                     */
618                     lex_tokench(lex, ' ');
619                     lex_tokench(lex, ' ');
620                 }
621
622                 while (ch != EOF)
623                 {
624                     ch = lex_getch(lex);
625                     if (ch == '*') {
626                         ch = lex_getch(lex);
627                         if (ch == '/') {
628                             if (lex->flags.preprocessing) {
629                                 /*
630                                 lex_tokench(lex, '*');
631                                 lex_tokench(lex, '/');
632                                 */
633                                 lex_tokench(lex, ' ');
634                                 lex_tokench(lex, ' ');
635                             }
636                             break;
637                         }
638                         lex_ungetch(lex, ch);
639                     }
640                     if (lex->flags.preprocessing) {
641                         if (ch == '\n')
642                             lex_tokench(lex, '\n');
643                         else
644                             lex_tokench(lex, ' '); /* ch); */
645                     }
646                 }
647                 ch = ' '; /* cause TRUE in the isspace check */
648                 continue;
649             }
650             /* Otherwise roll back to the slash and break out of the loop */
651             lex_ungetch(lex, ch);
652             ch = '/';
653             break;
654         }
655     } while (ch != EOF && isspace(ch));
656
657     if (haswhite) {
658         lex_endtoken(lex);
659         lex_ungetch(lex, ch);
660         return TOKEN_WHITE;
661     }
662     return ch;
663 }
664
665 /* Get a token */
666 static bool GMQCC_WARN lex_finish_ident(lex_file *lex)
667 {
668     int ch;
669
670     ch = lex_getch(lex);
671     while (ch != EOF && isident(ch))
672     {
673         lex_tokench(lex, ch);
674         ch = lex_getch(lex);
675     }
676
677     /* last ch was not an ident ch: */
678     lex_ungetch(lex, ch);
679
680     return true;
681 }
682
683 /* read one ident for the frame list */
684 static int lex_parse_frame(lex_file *lex)
685 {
686     int ch;
687
688     lex_token_new(lex);
689
690     ch = lex_getch(lex);
691     while (ch != EOF && ch != '\n' && isspace(ch))
692         ch = lex_getch(lex);
693
694     if (ch == '\n')
695         return 1;
696
697     if (!isident_start(ch)) {
698         lexerror(lex, "invalid framename, must start with one of a-z or _, got %c", ch);
699         return -1;
700     }
701
702     lex_tokench(lex, ch);
703     if (!lex_finish_ident(lex))
704         return -1;
705     lex_endtoken(lex);
706     return 0;
707 }
708
709 /* read a list of $frames */
710 static bool lex_finish_frames(lex_file *lex)
711 {
712     do {
713         size_t i;
714         int    rc;
715         frame_macro m;
716
717         rc = lex_parse_frame(lex);
718         if (rc > 0) /* end of line */
719             return true;
720         if (rc < 0) /* error */
721             return false;
722
723         for (i = 0; i < vec_size(lex->frames); ++i) {
724             if (!strcmp(lex->tok.value, lex->frames[i].name)) {
725                 lex->frames[i].value = lex->framevalue++;
726                 if (lexwarn(lex, WARN_FRAME_MACROS, "duplicate frame macro defined: `%s`", lex->tok.value))
727                     return false;
728                 break;
729             }
730         }
731         if (i < vec_size(lex->frames))
732             continue;
733
734         m.value = lex->framevalue++;
735         m.name = util_strdup(lex->tok.value);
736         vec_shrinkto(lex->tok.value, 0);
737         vec_push(lex->frames, m);
738     } while (true);
739 }
740
741 static int GMQCC_WARN lex_finish_string(lex_file *lex, int quote)
742 {
743     int ch = 0;
744     int nextch;
745     bool hex;
746     char u8buf[8]; /* way more than enough */
747     int  u8len, uc;
748
749     while (ch != EOF)
750     {
751         ch = lex_getch(lex);
752         if (ch == quote)
753             return TOKEN_STRINGCONST;
754
755         if (lex->flags.preprocessing && ch == '\\') {
756             lex_tokench(lex, ch);
757             ch = lex_getch(lex);
758             if (ch == EOF) {
759                 lexerror(lex, "unexpected end of file");
760                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
761                 return (lex->tok.ttype = TOKEN_ERROR);
762             }
763             lex_tokench(lex, ch);
764         }
765         else if (ch == '\\') {
766             ch = lex_getch(lex);
767             if (ch == EOF) {
768                 lexerror(lex, "unexpected end of file");
769                 lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
770                 return (lex->tok.ttype = TOKEN_ERROR);
771             }
772
773             switch (ch) {
774             case '\\': break;
775             case '\'': break;
776             case '"':  break;
777             case 'a':  ch = '\a'; break;
778             case 'b':  ch = '\b'; break;
779             case 'r':  ch = '\r'; break;
780             case 'n':  ch = '\n'; break;
781             case 't':  ch = '\t'; break;
782             case 'f':  ch = '\f'; break;
783             case 'v':  ch = '\v'; break;
784             case 'x':
785             case 'X':
786                 /* same procedure as in fteqcc */
787                 ch = 0;
788                 nextch = lex_getch(lex);
789                 if      (nextch >= '0' && nextch <= '9')
790                     ch += nextch - '0';
791                 else if (nextch >= 'a' && nextch <= 'f')
792                     ch += nextch - 'a' + 10;
793                 else if (nextch >= 'A' && nextch <= 'F')
794                     ch += nextch - 'A' + 10;
795                 else {
796                     lexerror(lex, "bad character code");
797                     lex_ungetch(lex, nextch);
798                     return (lex->tok.ttype = TOKEN_ERROR);
799                 }
800
801                 ch *= 0x10;
802                 nextch = lex_getch(lex);
803                 if      (nextch >= '0' && nextch <= '9')
804                     ch += nextch - '0';
805                 else if (nextch >= 'a' && nextch <= 'f')
806                     ch += nextch - 'a' + 10;
807                 else if (nextch >= 'A' && nextch <= 'F')
808                     ch += nextch - 'A' + 10;
809                 else {
810                     lexerror(lex, "bad character code");
811                     lex_ungetch(lex, nextch);
812                     return (lex->tok.ttype = TOKEN_ERROR);
813                 }
814                 break;
815
816             /* fteqcc support */
817             case '0': case '1': case '2': case '3':
818             case '4': case '5': case '6': case '7':
819             case '8': case '9':
820                 ch = 18 + ch - '0';
821                 break;
822             case '<':  ch = 29; break;
823             case '-':  ch = 30; break;
824             case '>':  ch = 31; break;
825             case '[':  ch = 16; break;
826             case ']':  ch = 17; break;
827             case '{':
828                 ch = 0;
829                 nextch = lex_getch(lex);
830                 hex = (nextch == 'x');
831                 if (!hex)
832                     lex_ungetch(lex, nextch);
833                 for (nextch = lex_getch(lex); nextch != '}'; nextch = lex_getch(lex)) {
834                     if (!hex) {
835                         if (nextch >= '0' && nextch <= '9')
836                             ch = ch * 10 + nextch - '0';
837                         else {
838                             lexerror(lex, "bad character code");
839                             return (lex->tok.ttype = TOKEN_ERROR);
840                         }
841                     } else {
842                         if (nextch >= '0' || nextch <= '9')
843                             ch = ch * 16 + nextch - '0';
844                         else if (nextch >= 'a' && nextch <= 'f')
845                             ch = ch * 16 + nextch - 'a' + 10;
846                         else if (nextch >= 'A' && nextch <= 'F')
847                             ch = ch * 16 + nextch - 'A' + 10;
848                         else {
849                             lexerror(lex, "bad character code");
850                             return (lex->tok.ttype = TOKEN_ERROR);
851                         }
852                     }
853                     if ( (!OPTS_FLAG(UTF8) && ch > 255) ||
854                          ( OPTS_FLAG(UTF8) && ch > 0x10FFFF) )
855                     {
856                         lexerror(lex, "character code out of range");
857                         return (lex->tok.ttype = TOKEN_ERROR);
858                     }
859                 }
860                 if (OPTS_FLAG(UTF8) && ch >= 128) {
861                     u8len = u8_fromchar((uchar_t)ch, u8buf, sizeof(u8buf));
862                     if (!u8len)
863                         ch = 0;
864                     else {
865                         --u8len;
866                         for (uc = 0; uc < u8len; ++uc)
867                             lex_tokench(lex, u8buf[uc]);
868                         /* the last character will be inserted with the tokench() call
869                          * below the switch
870                          */
871                         ch = u8buf[uc];
872                     }
873                 }
874                 break;
875             case '\n':  ch = '\n'; break;
876
877             default:
878                 lexwarn(lex, WARN_UNKNOWN_CONTROL_SEQUENCE, "unrecognized control sequence: \\%c", ch);
879                 /* so we just add the character plus backslash no matter what it actually is */
880                 lex_tokench(lex, '\\');
881             }
882             /* add the character finally */
883             lex_tokench(lex, ch);
884         }
885         else
886             lex_tokench(lex, ch);
887     }
888     lexerror(lex, "unexpected end of file within string constant");
889     lex_ungetch(lex, EOF); /* next token to be TOKEN_EOF */
890     return (lex->tok.ttype = TOKEN_ERROR);
891 }
892
893 static int GMQCC_WARN lex_finish_digit(lex_file *lex, int lastch)
894 {
895     bool ishex = false;
896
897     int  ch = lastch;
898
899     /* parse a number... */
900     if (ch == '.')
901         lex->tok.ttype = TOKEN_FLOATCONST;
902     else
903         lex->tok.ttype = TOKEN_INTCONST;
904
905     lex_tokench(lex, ch);
906
907     ch = lex_getch(lex);
908     if (ch != '.' && !isdigit(ch))
909     {
910         if (lastch != '0' || ch != 'x')
911         {
912             /* end of the number or EOF */
913             lex_ungetch(lex, ch);
914             lex_endtoken(lex);
915
916             lex->tok.constval.i = lastch - '0';
917             return lex->tok.ttype;
918         }
919
920         ishex = true;
921     }
922
923     /* EOF would have been caught above */
924
925     if (ch != '.')
926     {
927         lex_tokench(lex, ch);
928         ch = lex_getch(lex);
929         while (isdigit(ch) || (ishex && isxdigit_only(ch)))
930         {
931             lex_tokench(lex, ch);
932             ch = lex_getch(lex);
933         }
934     }
935     /* NOT else, '.' can come from above as well */
936     if (lex->tok.ttype != TOKEN_FLOATCONST && ch == '.' && !ishex)
937     {
938         /* Allow floating comma in non-hex mode */
939         lex->tok.ttype = TOKEN_FLOATCONST;
940         lex_tokench(lex, ch);
941
942         /* continue digits-only */
943         ch = lex_getch(lex);
944         while (isdigit(ch))
945         {
946             lex_tokench(lex, ch);
947             ch = lex_getch(lex);
948         }
949     }
950     /* put back the last character */
951     /* but do not put back the trailing 'f' or a float */
952     if (lex->tok.ttype == TOKEN_FLOATCONST && ch == 'f')
953         ch = lex_getch(lex);
954
955     /* generally we don't want words to follow numbers: */
956     if (isident(ch)) {
957         lexerror(lex, "unexpected trailing characters after number");
958         return (lex->tok.ttype = TOKEN_ERROR);
959     }
960     lex_ungetch(lex, ch);
961
962     lex_endtoken(lex);
963     if (lex->tok.ttype == TOKEN_FLOATCONST)
964         lex->tok.constval.f = strtod(lex->tok.value, NULL);
965     else
966         lex->tok.constval.i = strtol(lex->tok.value, NULL, 0);
967     return lex->tok.ttype;
968 }
969
970 int lex_do(lex_file *lex)
971 {
972     int ch, nextch, thirdch;
973     bool hadwhite = false;
974
975     lex_token_new(lex);
976 #if 0
977     if (!lex->tok)
978         return TOKEN_FATAL;
979 #endif
980
981     while (true) {
982         ch = lex_skipwhite(lex, hadwhite);
983         hadwhite = true;
984         if (!lex->flags.mergelines || ch != '\\')
985             break;
986         ch = lex_getch(lex);
987         if (ch != '\n') {
988             lex_ungetch(lex, ch);
989             ch = '\\';
990             break;
991         }
992         /* we reached a linemerge */
993         lex_tokench(lex, '\n');
994         continue;
995     }
996
997     if (lex->flags.preprocessing && (ch == TOKEN_WHITE || ch == TOKEN_EOL || ch == TOKEN_FATAL)) {
998         return (lex->tok.ttype = ch);
999     }
1000
1001     lex->sline = lex->line;
1002     lex->tok.ctx.line = lex->sline;
1003     lex->tok.ctx.file = lex->name;
1004
1005     if (lex->eof)
1006         return (lex->tok.ttype = TOKEN_FATAL);
1007
1008     if (ch == EOF) {
1009         lex->eof = true;
1010         return (lex->tok.ttype = TOKEN_EOF);
1011     }
1012
1013     /* modelgen / spiritgen commands */
1014     if (ch == '$' && !lex->flags.preprocessing) {
1015         const char *v;
1016         size_t frame;
1017
1018         ch = lex_getch(lex);
1019         if (!isident_start(ch)) {
1020             lexerror(lex, "hanging '$' modelgen/spritegen command line");
1021             return lex_do(lex);
1022         }
1023         lex_tokench(lex, ch);
1024         if (!lex_finish_ident(lex))
1025             return (lex->tok.ttype = TOKEN_ERROR);
1026         lex_endtoken(lex);
1027         /* skip the known commands */
1028         v = lex->tok.value;
1029
1030         if (!strcmp(v, "frame") || !strcmp(v, "framesave"))
1031         {
1032             /* frame/framesave command works like an enum
1033              * similar to fteqcc we handle this in the lexer.
1034              * The reason for this is that it is sensitive to newlines,
1035              * which the parser is unaware of
1036              */
1037             if (!lex_finish_frames(lex))
1038                  return (lex->tok.ttype = TOKEN_ERROR);
1039             return lex_do(lex);
1040         }
1041
1042         if (!strcmp(v, "framevalue"))
1043         {
1044             ch = lex_getch(lex);
1045             while (ch != EOF && isspace(ch) && ch != '\n')
1046                 ch = lex_getch(lex);
1047
1048             if (!isdigit(ch)) {
1049                 lexerror(lex, "$framevalue requires an integer parameter");
1050                 return lex_do(lex);
1051             }
1052
1053             lex_token_new(lex);
1054             lex->tok.ttype = lex_finish_digit(lex, ch);
1055             lex_endtoken(lex);
1056             if (lex->tok.ttype != TOKEN_INTCONST) {
1057                 lexerror(lex, "$framevalue requires an integer parameter");
1058                 return lex_do(lex);
1059             }
1060             lex->framevalue = lex->tok.constval.i;
1061             return lex_do(lex);
1062         }
1063
1064         if (!strcmp(v, "framerestore"))
1065         {
1066             int rc;
1067
1068             lex_token_new(lex);
1069
1070             rc = lex_parse_frame(lex);
1071
1072             if (rc > 0) {
1073                 lexerror(lex, "$framerestore requires a framename parameter");
1074                 return lex_do(lex);
1075             }
1076             if (rc < 0)
1077                 return (lex->tok.ttype = TOKEN_FATAL);
1078
1079             v = lex->tok.value;
1080             for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1081                 if (!strcmp(v, lex->frames[frame].name)) {
1082                     lex->framevalue = lex->frames[frame].value;
1083                     return lex_do(lex);
1084                 }
1085             }
1086             lexerror(lex, "unknown framename `%s`", v);
1087             return lex_do(lex);
1088         }
1089
1090         if (!strcmp(v, "modelname"))
1091         {
1092             int rc;
1093
1094             lex_token_new(lex);
1095
1096             rc = lex_parse_frame(lex);
1097
1098             if (rc > 0) {
1099                 lexerror(lex, "$modelname requires a parameter");
1100                 return lex_do(lex);
1101             }
1102             if (rc < 0)
1103                 return (lex->tok.ttype = TOKEN_FATAL);
1104
1105             if (lex->modelname) {
1106                 frame_macro m;
1107                 m.value = lex->framevalue;
1108                 m.name = lex->modelname;
1109                 lex->modelname = NULL;
1110                 vec_push(lex->frames, m);
1111             }
1112             lex->modelname = lex->tok.value;
1113             lex->tok.value = NULL;
1114             return lex_do(lex);
1115         }
1116
1117         if (!strcmp(v, "flush"))
1118         {
1119             size_t fi;
1120             for (fi = 0; fi < vec_size(lex->frames); ++fi)
1121                 mem_d(lex->frames[fi].name);
1122             vec_free(lex->frames);
1123             /* skip line (fteqcc does it too) */
1124             ch = lex_getch(lex);
1125             while (ch != EOF && ch != '\n')
1126                 ch = lex_getch(lex);
1127             return lex_do(lex);
1128         }
1129
1130         if (!strcmp(v, "cd") ||
1131             !strcmp(v, "origin") ||
1132             !strcmp(v, "base") ||
1133             !strcmp(v, "flags") ||
1134             !strcmp(v, "scale") ||
1135             !strcmp(v, "skin"))
1136         {
1137             /* skip line */
1138             ch = lex_getch(lex);
1139             while (ch != EOF && ch != '\n')
1140                 ch = lex_getch(lex);
1141             return lex_do(lex);
1142         }
1143
1144         for (frame = 0; frame < vec_size(lex->frames); ++frame) {
1145             if (!strcmp(v, lex->frames[frame].name)) {
1146                 lex->tok.constval.i = lex->frames[frame].value;
1147                 return (lex->tok.ttype = TOKEN_INTCONST);
1148             }
1149         }
1150
1151         lexerror(lex, "invalid frame macro");
1152         return lex_do(lex);
1153     }
1154
1155     /* single-character tokens */
1156     switch (ch)
1157     {
1158         case '[':
1159             nextch = lex_getch(lex);
1160             if (nextch == '[') {
1161                 lex_tokench(lex, ch);
1162                 lex_tokench(lex, nextch);
1163                 lex_endtoken(lex);
1164                 return (lex->tok.ttype = TOKEN_ATTRIBUTE_OPEN);
1165             }
1166             lex_ungetch(lex, nextch);
1167             /* FALL THROUGH */
1168         case '(':
1169         case ':':
1170         case '?':
1171             lex_tokench(lex, ch);
1172             lex_endtoken(lex);
1173             if (lex->flags.noops)
1174                 return (lex->tok.ttype = ch);
1175             else
1176                 return (lex->tok.ttype = TOKEN_OPERATOR);
1177
1178         case ']':
1179             if (lex->flags.noops) {
1180                 nextch = lex_getch(lex);
1181                 if (nextch == ']') {
1182                     lex_tokench(lex, ch);
1183                     lex_tokench(lex, nextch);
1184                     lex_endtoken(lex);
1185                     return (lex->tok.ttype = TOKEN_ATTRIBUTE_CLOSE);
1186                 }
1187                 lex_ungetch(lex, nextch);
1188             }
1189             /* FALL THROUGH */
1190         case ')':
1191         case ';':
1192         case '{':
1193         case '}':
1194
1195         case '#':
1196             lex_tokench(lex, ch);
1197             lex_endtoken(lex);
1198             return (lex->tok.ttype = ch);
1199         default:
1200             break;
1201     }
1202
1203     if (ch == '.') {
1204         nextch = lex_getch(lex);
1205         /* digits starting with a dot */
1206         if (isdigit(nextch)) {
1207             lex_ungetch(lex, nextch);
1208             lex->tok.ttype = lex_finish_digit(lex, ch);
1209             lex_endtoken(lex);
1210             return lex->tok.ttype;
1211         }
1212         lex_ungetch(lex, nextch);
1213     }
1214
1215     if (lex->flags.noops)
1216     {
1217         /* Detect characters early which are normally
1218          * operators OR PART of an operator.
1219          */
1220         switch (ch)
1221         {
1222             /*
1223             case '+':
1224             case '-':
1225             */
1226             case '*':
1227             case '/':
1228             case '<':
1229             case '>':
1230             case '=':
1231             case '&':
1232             case '|':
1233             case '^':
1234             case '~':
1235             case ',':
1236             case '!':
1237                 lex_tokench(lex, ch);
1238                 lex_endtoken(lex);
1239                 return (lex->tok.ttype = ch);
1240             default:
1241                 break;
1242         }
1243
1244         if (ch == '.')
1245         {
1246             lex_tokench(lex, ch);
1247             /* peak ahead once */
1248             nextch = lex_getch(lex);
1249             if (nextch != '.') {
1250                 lex_ungetch(lex, nextch);
1251                 lex_endtoken(lex);
1252                 return (lex->tok.ttype = ch);
1253             }
1254             /* peak ahead again */
1255             nextch = lex_getch(lex);
1256             if (nextch != '.') {
1257                 lex_ungetch(lex, nextch);
1258                 lex_ungetch(lex, '.');
1259                 lex_endtoken(lex);
1260                 return (lex->tok.ttype = ch);
1261             }
1262             /* fill the token to be "..." */
1263             lex_tokench(lex, ch);
1264             lex_tokench(lex, ch);
1265             lex_endtoken(lex);
1266             return (lex->tok.ttype = TOKEN_DOTS);
1267         }
1268     }
1269
1270     if (ch == ',' || ch == '.') {
1271         lex_tokench(lex, ch);
1272         lex_endtoken(lex);
1273         return (lex->tok.ttype = TOKEN_OPERATOR);
1274     }
1275
1276     if (ch == '+' || ch == '-' || /* ++, --, +=, -=  and -> as well! */
1277         ch == '>' || ch == '<' || /* <<, >>, <=, >= */
1278         ch == '=' || ch == '!' || /* ==, != */
1279         ch == '&' || ch == '|')   /* &&, ||, &=, |= */
1280     {
1281         lex_tokench(lex, ch);
1282
1283         nextch = lex_getch(lex);
1284         if (nextch == '=' || (nextch == ch && ch != '!')) {
1285             lex_tokench(lex, nextch);
1286         } else if (ch == '-' && nextch == '>') {
1287             lex_tokench(lex, nextch);
1288         } else if (ch == '&' && nextch == '~') {
1289             thirdch = lex_getch(lex);
1290             if (thirdch != '=') {
1291                 lex_ungetch(lex, thirdch);
1292                 lex_ungetch(lex, nextch);
1293             }
1294             else {
1295                 lex_tokench(lex, nextch);
1296                 lex_tokench(lex, thirdch);
1297             }
1298         } else
1299             lex_ungetch(lex, nextch);
1300
1301         lex_endtoken(lex);
1302         return (lex->tok.ttype = TOKEN_OPERATOR);
1303     }
1304
1305     /*
1306     if (ch == '^' || ch == '~' || ch == '!')
1307     {
1308         lex_tokench(lex, ch);
1309         lex_endtoken(lex);
1310         return (lex->tok.ttype = TOKEN_OPERATOR);
1311     }
1312     */
1313
1314     if (ch == '*' || ch == '/') /* *=, /= */
1315     {
1316         lex_tokench(lex, ch);
1317
1318         nextch = lex_getch(lex);
1319         if (nextch == '=') {
1320             lex_tokench(lex, nextch);
1321         } else
1322             lex_ungetch(lex, nextch);
1323
1324         lex_endtoken(lex);
1325         return (lex->tok.ttype = TOKEN_OPERATOR);
1326     }
1327
1328     if (isident_start(ch))
1329     {
1330         const char *v;
1331
1332         lex_tokench(lex, ch);
1333         if (!lex_finish_ident(lex)) {
1334             /* error? */
1335             return (lex->tok.ttype = TOKEN_ERROR);
1336         }
1337         lex_endtoken(lex);
1338         lex->tok.ttype = TOKEN_IDENT;
1339
1340         v = lex->tok.value;
1341         if (!strcmp(v, "void")) {
1342             lex->tok.ttype = TOKEN_TYPENAME;
1343             lex->tok.constval.t = TYPE_VOID;
1344         } else if (!strcmp(v, "int")) {
1345             lex->tok.ttype = TOKEN_TYPENAME;
1346             lex->tok.constval.t = TYPE_INTEGER;
1347         } else if (!strcmp(v, "float")) {
1348             lex->tok.ttype = TOKEN_TYPENAME;
1349             lex->tok.constval.t = TYPE_FLOAT;
1350         } else if (!strcmp(v, "string")) {
1351             lex->tok.ttype = TOKEN_TYPENAME;
1352             lex->tok.constval.t = TYPE_STRING;
1353         } else if (!strcmp(v, "entity")) {
1354             lex->tok.ttype = TOKEN_TYPENAME;
1355             lex->tok.constval.t = TYPE_ENTITY;
1356         } else if (!strcmp(v, "vector")) {
1357             lex->tok.ttype = TOKEN_TYPENAME;
1358             lex->tok.constval.t = TYPE_VECTOR;
1359         } else {
1360             size_t kw;
1361             for (kw = 0; kw < num_keywords_qc; ++kw) {
1362                 if (!strcmp(v, keywords_qc[kw]))
1363                     return (lex->tok.ttype = TOKEN_KEYWORD);
1364             }
1365             if (opts.standard != COMPILER_QCC) {
1366                 for (kw = 0; kw < num_keywords_fg; ++kw) {
1367                     if (!strcmp(v, keywords_fg[kw]))
1368                         return (lex->tok.ttype = TOKEN_KEYWORD);
1369                 }
1370             }
1371         }
1372
1373         return lex->tok.ttype;
1374     }
1375
1376     if (ch == '"')
1377     {
1378         lex->flags.nodigraphs = true;
1379         if (lex->flags.preprocessing)
1380             lex_tokench(lex, ch);
1381         lex->tok.ttype = lex_finish_string(lex, '"');
1382         if (lex->flags.preprocessing)
1383             lex_tokench(lex, ch);
1384         while (!lex->flags.preprocessing && lex->tok.ttype == TOKEN_STRINGCONST)
1385         {
1386             /* Allow c style "string" "continuation" */
1387             ch = lex_skipwhite(lex, false);
1388             if (ch != '"') {
1389                 lex_ungetch(lex, ch);
1390                 break;
1391             }
1392
1393             lex->tok.ttype = lex_finish_string(lex, '"');
1394         }
1395         lex->flags.nodigraphs = false;
1396         lex_endtoken(lex);
1397         return lex->tok.ttype;
1398     }
1399
1400     if (ch == '\'')
1401     {
1402         /* we parse character constants like string,
1403          * but return TOKEN_CHARCONST, or a vector type if it fits...
1404          * Likewise actual unescaping has to be done by the parser.
1405          * The difference is we don't allow 'char' 'continuation'.
1406          */
1407         if (lex->flags.preprocessing)
1408             lex_tokench(lex, ch);
1409         lex->tok.ttype = lex_finish_string(lex, '\'');
1410         if (lex->flags.preprocessing)
1411             lex_tokench(lex, ch);
1412         lex_endtoken(lex);
1413
1414         lex->tok.ttype = TOKEN_CHARCONST;
1415          /* It's a vector if we can successfully scan 3 floats */
1416 #ifdef _MSC_VER
1417         if (sscanf_s(lex->tok.value, " %f %f %f ",
1418                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1419 #else
1420         if (sscanf(lex->tok.value, " %f %f %f ",
1421                    &lex->tok.constval.v.x, &lex->tok.constval.v.y, &lex->tok.constval.v.z) == 3)
1422 #endif
1423
1424         {
1425              lex->tok.ttype = TOKEN_VECTORCONST;
1426         }
1427         else
1428         {
1429             if (!lex->flags.preprocessing && strlen(lex->tok.value) > 1) {
1430                 uchar_t u8char;
1431                 /* check for a valid utf8 character */
1432                 if (!OPTS_FLAG(UTF8) || !u8_analyze(lex->tok.value, NULL, NULL, &u8char, 8)) {
1433                     if (lexwarn(lex, WARN_MULTIBYTE_CHARACTER,
1434                                 ( OPTS_FLAG(UTF8) ? "invalid multibyte character sequence `%s`"
1435                                                   : "multibyte character: `%s`" ),
1436                                 lex->tok.value))
1437                         return (lex->tok.ttype = TOKEN_ERROR);
1438                 }
1439                 else
1440                     lex->tok.constval.i = u8char;
1441             }
1442             else
1443                 lex->tok.constval.i = lex->tok.value[0];
1444         }
1445
1446         return lex->tok.ttype;
1447     }
1448
1449     if (isdigit(ch))
1450     {
1451         lex->tok.ttype = lex_finish_digit(lex, ch);
1452         lex_endtoken(lex);
1453         return lex->tok.ttype;
1454     }
1455
1456     if (lex->flags.preprocessing) {
1457         lex_tokench(lex, ch);
1458         lex_endtoken(lex);
1459         return (lex->tok.ttype = ch);
1460     }
1461
1462     lexerror(lex, "unknown token");
1463     return (lex->tok.ttype = TOKEN_ERROR);
1464 }