home *** CD-ROM | disk | FTP | other *** search
/ Education Sampler 1992 [NeXTSTEP] / Education_1992_Sampler.iso / NeXT / GnuSource / cc-61.0.1 / cc / expr.h < prev    next >
C/C++ Source or Header  |  1991-06-04  |  18KB  |  553 lines

  1. /* Definitions for code generation pass of GNU compiler.
  2.    Copyright (C) 1987-1990 Free Software Foundation, Inc.
  3.  
  4. This file is part of GNU CC.
  5.  
  6. GNU CC is free software; you can redistribute it and/or modify
  7. it under the terms of the GNU General Public License as published by
  8. the Free Software Foundation; either version 2, or (at your option)
  9. any later version.
  10.  
  11. GNU CC is distributed in the hope that it will be useful,
  12. but WITHOUT ANY WARRANTY; without even the implied warranty of
  13. MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
  14. GNU General Public License for more details.
  15.  
  16. You should have received a copy of the GNU General Public License
  17. along with GNU CC; see the file COPYING.  If not, write to
  18. the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.  */
  19.  
  20.  
  21. #ifndef __STDC__
  22. #ifndef const
  23. #define const
  24. #endif
  25. #endif
  26.  
  27. /* Macros to access the slots of a QUEUED rtx.
  28.    Here rather than in rtl.h because only the expansion pass
  29.    should ever encounter a QUEUED.  */
  30.  
  31. /* The variable for which an increment is queued.  */
  32. #define QUEUED_VAR(P) XEXP (P, 0)
  33. /* If the increment has been emitted, this is the insn
  34.    that does the increment.  It is zero before the increment is emitted.  */
  35. #define QUEUED_INSN(P) XEXP (P, 1)
  36. /* If a pre-increment copy has been generated, this is the copy
  37.    (it is a temporary reg).  Zero if no copy made yet.  */
  38. #define QUEUED_COPY(P) XEXP (P, 2)
  39. /* This is the body to use for the insn to do the increment.
  40.    It is used to emit the increment.  */
  41. #define QUEUED_BODY(P) XEXP (P, 3)
  42. /* Next QUEUED in the queue.  */
  43. #define QUEUED_NEXT(P) XEXP (P, 4)
  44.  
  45. /* This is the 4th arg to `expand_expr'.
  46.    EXPAND_SUM means it is ok to return a PLUS rtx or MULT rtx.
  47.    EXPAND_CONST_ADDRESS means it is ok to return a MEM whose address
  48.     is a constant that is not a legitimate address
  49.    ??? Tiemann, what does EXPAND_INTO_STACK mean?  */
  50. enum expand_modifier {EXPAND_NORMAL, EXPAND_SUM,
  51.               EXPAND_CONST_ADDRESS, EXPAND_INTO_STACK};
  52.  
  53. /* List (chain of EXPR_LISTs) of pseudo-regs of SAVE_EXPRs.
  54.    So we can mark them all live at the end of the function, if stupid.  */
  55. extern rtx save_expr_regs;
  56.  
  57. extern int current_function_calls_alloca;
  58. extern int current_function_outgoing_args_size;
  59.  
  60. /* This is the offset from the arg pointer to the place where the first
  61.    anonymous arg can be found, if there is one.  */
  62. extern rtx current_function_arg_offset_rtx;
  63.  
  64. /* This is nonzero if the current function uses the constant pool.  */
  65. extern int current_function_uses_const_pool;
  66.  
  67. /* Nonzero means stack pops must not be deferred, and deferred stack
  68.    pops must not be output.  It is nonzero inside a function call,
  69.    inside a conditional expression, inside a statement expression,
  70.    and in other cases as well.  */
  71. extern int inhibit_defer_pop;
  72.  
  73. /* Number of function calls seen so far in current function.  */
  74.  
  75. extern int function_call_count;
  76.  
  77. /* RTX for stack slot that holds the current handler for nonlocal gotos.
  78.    Zero when function does not have nonlocal labels.  */
  79.  
  80. extern rtx nonlocal_goto_handler_slot;
  81.  
  82. /* RTX for stack slot that holds the stack pointer value to restore
  83.    for a nonlocal goto.
  84.    Zero when function does not have nonlocal labels.  */
  85.  
  86. extern rtx nonlocal_goto_stack_level;
  87.  
  88. /* List (chain of TREE_LIST) of LABEL_DECLs for all nonlocal labels
  89.    (labels to which there can be nonlocal gotos from nested functions)
  90.    in this function.  */
  91.  
  92. #ifdef TREE_CODE   /* Don't lose if tree.h not included.  */
  93. extern tree nonlocal_labels;
  94. #endif
  95.  
  96. #define NO_DEFER_POP (inhibit_defer_pop += 1)
  97. #define OK_DEFER_POP (inhibit_defer_pop -= 1)
  98.  
  99. /* Number of units that we should eventually pop off the stack.
  100.    These are the arguments to function calls that have already returned.  */
  101. extern int pending_stack_adjust;
  102.  
  103. /* A list of all cleanups which belong to the arguments of
  104.    function calls being expanded by expand_call.  */
  105. #ifdef TREE_CODE   /* Don't lose if tree.h not included.  */
  106. extern tree cleanups_this_call;
  107. #endif
  108.  
  109. #ifdef TREE_CODE /* Don't lose if tree.h not included.  */
  110. /* Structure to record the size of a sequence of arguments
  111.    as the sum of a tree-expression and a constant.  */
  112.  
  113. struct args_size
  114. {
  115.   int constant;
  116.   tree var;
  117. };
  118. #endif
  119.  
  120. /* Add the value of the tree INC to the `struct args_size' TO.  */
  121.  
  122. #define ADD_PARM_SIZE(TO, INC)    \
  123. { tree inc = (INC);                \
  124.   if (TREE_CODE (inc) == INTEGER_CST)        \
  125.     (TO).constant += TREE_INT_CST_LOW (inc);    \
  126.   else if ((TO).var == 0)            \
  127.     (TO).var = inc;                \
  128.   else                        \
  129.     (TO).var = size_binop (PLUS_EXPR, (TO).var, inc); }
  130.  
  131. #define SUB_PARM_SIZE(TO, DEC)    \
  132. { tree dec = (DEC);                \
  133.   if (TREE_CODE (dec) == INTEGER_CST)        \
  134.     (TO).constant -= TREE_INT_CST_LOW (dec);    \
  135.   else if ((TO).var == 0)            \
  136.     (TO).var = size_binop (MINUS_EXPR, integer_zero_node, dec); \
  137.   else                        \
  138.     (TO).var = size_binop (MINUS_EXPR, (TO).var, dec); }
  139.  
  140. /* Convert the implicit sum in a `struct args_size' into an rtx.  */
  141. #define ARGS_SIZE_RTX(SIZE)                        \
  142. ((SIZE).var == 0 ? gen_rtx (CONST_INT, VOIDmode, (SIZE).constant)    \
  143.  : expand_expr (size_binop (PLUS_EXPR, (SIZE).var,            \
  144.                 size_int ((SIZE).constant)),        \
  145.         0, VOIDmode, 0))
  146.  
  147. /* Convert the implicit sum in a `struct args_size' into a tree.  */
  148. #define ARGS_SIZE_TREE(SIZE)                        \
  149. ((SIZE).var == 0 ? size_int ((SIZE).constant)                \
  150.  : size_binop (PLUS_EXPR, (SIZE).var, size_int ((SIZE).constant)))
  151.  
  152. /* Supply a default definition for FUNCTION_ARG_PADDING:
  153.    usually pad upward, but pad short, non-BLKmode args downward on
  154.    big-endian machines.  */
  155.  
  156. enum direction {none, upward, downward};  /* Value has this type.  */
  157.  
  158. #ifndef FUNCTION_ARG_PADDING
  159. #if BYTES_BIG_ENDIAN
  160. #define FUNCTION_ARG_PADDING(MODE, TYPE)                \
  161.   (((MODE) == BLKmode                            \
  162.     ? ((TYPE) && TREE_CODE (TYPE_SIZE (TYPE)) == INTEGER_CST        \
  163.        && int_size_in_bytes (TYPE) < PARM_BOUNDARY / BITS_PER_UNIT)    \
  164.     : GET_MODE_BITSIZE (MODE) < PARM_BOUNDARY)                \
  165.    ? downward : upward)
  166. #else
  167. #define FUNCTION_ARG_PADDING(MODE, TYPE) upward
  168. #endif
  169. #endif
  170.  
  171. /* Supply a default definition for FUNCTION_ARG_BOUNDARY.  Normally, we let
  172.    FUNCTION_ARG_PADDING, which also pads the length, handle any needed
  173.    alignment.  */
  174.   
  175. #ifndef FUNCTION_ARG_BOUNDARY
  176. #define FUNCTION_ARG_BOUNDARY(MODE, TYPE)    PARM_BOUNDARY
  177. #endif
  178.  
  179. /* Nonzero if we do not know how to pass TYPE solely in registers.
  180.    We cannot do so in the following cases:
  181.  
  182.    - if the type has variable size
  183.    - if the type is marked as addressable (it is required to be constructed
  184.      into the stack)
  185.    - if the padding and mode of the type is such that a copy into a register
  186.      would put it into the wrong part of the register
  187.    - when STRICT_ALIGNMENT and the type is BLKmode and is is not
  188.      aligned to a boundary corresponding to what can be loaded into a
  189.      register.  */
  190.  
  191. #ifdef STRICT_ALIGNMENT
  192. #define MUST_PASS_IN_STACK_BAD_ALIGN(MODE,TYPE)            \
  193.   (MODE == BLKmode                        \
  194.    && TYPE_ALIGN (TYPE) < (BIGGEST_ALIGNMENT < BITS_PER_WORD    \
  195.                ? BIGGEST_ALIGNMENT : BITS_PER_WORD))
  196. #else
  197. #define MUST_PASS_IN_STACK_BAD_ALIGN(MODE,TYPE) 0
  198. #endif
  199.   
  200. /* Which padding can't be supported depends on the byte endianness.  */
  201.  
  202. #if BYTES_BIG_ENDIAN
  203. #define MUST_PASS_IN_STACK_BAD_PADDING    downward
  204. #else
  205. #define MUST_PASS_IN_STACK_BAD_PADDING    upward
  206. #endif
  207.  
  208. #define MUST_PASS_IN_STACK(MODE,TYPE)            \
  209.   ((TYPE) != 0                        \
  210.    && (TREE_CODE (TYPE_SIZE (TYPE)) != INTEGER_CST    \
  211.        || TREE_ADDRESSABLE (TYPE)            \
  212.        || ((MODE) == BLKmode                 \
  213.        && (FUNCTION_ARG_PADDING (MODE, TYPE)    \
  214.            == MUST_PASS_IN_STACK_BAD_PADDING))    \
  215.        || MUST_PASS_IN_STACK_BAD_ALIGN (MODE, TYPE)))
  216.  
  217. /* Nonzero if type TYPE should be returned in memory
  218.    (even though its mode is not BLKmode).
  219.    Most machines can use the following default definition.  */
  220.  
  221. #ifndef RETURN_IN_MEMORY
  222. #define RETURN_IN_MEMORY(TYPE) 0
  223. #endif
  224.  
  225. /* Optabs are tables saying how to generate insn bodies
  226.    for various machine modes and numbers of operands.
  227.    Each optab applies to one operation.
  228.    For example, add_optab applies to addition.
  229.  
  230.    The insn_code slot is the enum insn_code that says how to
  231.    generate an insn for this operation on a particular machine mode.
  232.    It is CODE_FOR_nothing if there is no such insn on the target machine.
  233.  
  234.    The `lib_call' slot is the name of the library function that
  235.    can be used to perform the operation.
  236.  
  237.    A few optabs, such as move_optab and cmp_optab, are used
  238.    by special code.  */
  239.  
  240. /* Everything that uses expr.h needs to define enum insn_code
  241.    but we don't list it in the Makefile dependencies just for that.  */
  242. #include "insn-codes.h"
  243.  
  244. typedef struct optab
  245. {
  246.   enum rtx_code code;
  247.   struct {
  248.     enum insn_code insn_code;
  249.     rtx libfunc;
  250.   } handlers [NUM_MACHINE_MODES];
  251. } * optab;
  252.  
  253. /* Given an enum insn_code, access the function to construct
  254.    the body of that kind of insn.  */
  255. #define GEN_FCN(CODE) (*insn_gen_function[(int) (CODE)])
  256. extern rtx (*const insn_gen_function[]) ();
  257.  
  258. extern optab add_optab;
  259. extern optab sub_optab;
  260. extern optab smul_optab;    /* Signed multiply */
  261. extern optab smul_widen_optab;    /* Signed multiply with result 
  262.                    one machine mode wider than args */
  263. extern optab umul_widen_optab;
  264. extern optab sdiv_optab;    /* Signed divide */
  265. extern optab sdivmod_optab;    /* Signed divide-and-remainder in one */
  266. extern optab udiv_optab;
  267. extern optab udivmod_optab;
  268. extern optab smod_optab;    /* Signed remainder */
  269. extern optab umod_optab;
  270. extern optab flodiv_optab;    /* Optab for floating divide. */
  271. extern optab ftrunc_optab;    /* Convert float to integer in float fmt */
  272. extern optab and_optab;        /* Logical and */
  273. extern optab ior_optab;        /* Logical or */
  274. extern optab xor_optab;        /* Logical xor */
  275. extern optab ashl_optab;    /* Arithmetic shift left */
  276. extern optab ashr_optab;    /* Arithmetic shift right */
  277. extern optab lshl_optab;    /* Logical shift left */
  278. extern optab lshr_optab;    /* Logical shift right */
  279. extern optab rotl_optab;    /* Rotate left */
  280. extern optab rotr_optab;    /* Rotate right */
  281.  
  282. extern optab mov_optab;        /* Move instruction.  */
  283. extern optab movstrict_optab;    /* Move, preserving high part of register.  */
  284.  
  285. extern optab cmp_optab;        /* Compare insn; two operands.  */
  286. extern optab tst_optab;        /* tst insn; compare one operand against 0 */
  287.  
  288. /* Unary operations */
  289. extern optab neg_optab;        /* Negation */
  290. extern optab abs_optab;        /* Abs value */
  291. extern optab one_cmpl_optab;    /* Bitwise not */
  292. extern optab ffs_optab;        /* Find first bit set */
  293.  
  294. /* Passed to expand_binop and expand_unop to say which options to try to use
  295.    if the requested operation can't be open-coded on the requisite mode.
  296.    Either OPTAB_LIB or OPTAB_LIB_WIDEN says try using a library call.
  297.    Either OPTAB_WIDEN or OPTAB_LIB_WIDEN says try using a wider mode.
  298.    OPTAB_MUST_WIDEN says try widening and don't try anything else.  */
  299.  
  300. enum optab_methods
  301. {
  302.   OPTAB_DIRECT,
  303.   OPTAB_LIB,
  304.   OPTAB_WIDEN,
  305.   OPTAB_LIB_WIDEN,
  306.   OPTAB_MUST_WIDEN
  307. };
  308.  
  309. /* SYMBOL_REF rtx's for the library functions that are called
  310.    implicitly and not via optabs.  */
  311.  
  312. extern rtx extendsfdf2_libfunc;
  313. extern rtx truncdfsf2_libfunc;
  314. extern rtx memcpy_libfunc;
  315. extern rtx bcopy_libfunc;
  316. extern rtx memcmp_libfunc;
  317. extern rtx bcmp_libfunc;
  318. extern rtx memset_libfunc;
  319. extern rtx bzero_libfunc;
  320. extern rtx eqsf2_libfunc;
  321. extern rtx nesf2_libfunc;
  322. extern rtx gtsf2_libfunc;
  323. extern rtx gesf2_libfunc;
  324. extern rtx ltsf2_libfunc;
  325. extern rtx lesf2_libfunc;
  326. extern rtx eqdf2_libfunc;
  327. extern rtx nedf2_libfunc;
  328. extern rtx gtdf2_libfunc;
  329. extern rtx gedf2_libfunc;
  330. extern rtx ltdf2_libfunc;
  331. extern rtx ledf2_libfunc;
  332.  
  333. typedef rtx (*rtxfun) ();
  334.  
  335. /* Indexed by the rtx-code for a conditional (eg. EQ, LT,...)
  336.    gives the gen_function to make a branch to test that condition.  */
  337.  
  338. extern rtxfun bcc_gen_fctn[NUM_RTX_CODE];
  339.  
  340. /* Indexed by the rtx-code for a conditional (eg. EQ, LT,...)
  341.    gives the insn code to make a store-condition insn
  342.    to test that condition.  */
  343.  
  344. extern enum insn_code setcc_gen_code[NUM_RTX_CODE];
  345.  
  346. /* Expand a binary operation given optab and rtx operands.  */
  347. rtx expand_binop ();
  348.  
  349. /* Expand a binary operation with both signed and unsigned forms.  */
  350. rtx sign_expand_binop ();
  351.  
  352. /* Expand a unary arithmetic operation given optab rtx operand.  */
  353. rtx expand_unop ();
  354.  
  355. /* Arguments MODE, RTX: return an rtx for the negation of that value.
  356.    May emit insns.  */
  357. rtx negate_rtx ();
  358.  
  359. /* Expand a logical AND operation.  */
  360. rtx expand_and ();
  361.  
  362. /* Emit a store-flag operation.  */
  363. rtx emit_store_flag ();
  364.  
  365. /* Return the CODE_LABEL rtx for a LABEL_DECL, creating it if necessary.  */
  366. rtx label_rtx ();
  367.  
  368. /* Given a JUMP_INSN, return a description of the test being made.  */
  369. rtx get_condition ();
  370.  
  371. /* Initialize the tables that control conversion between fixed and
  372.    floating values.  */
  373. void init_fixtab ();
  374. void init_floattab ();
  375.  
  376. /* Generate code for a FIX_EXPR.  */
  377. void expand_fix ();
  378.  
  379. /* Generate code for a FLOAT_EXPR.  */
  380. void expand_float ();
  381.  
  382. /* Create but don't emit one rtl instruction to add one rtx into another.
  383.    Modes must match; operands must meet the operation's predicates.
  384.    Likewise for subtraction and for just copying.
  385.    These do not call protect_from_queue; caller must do so.  */
  386. rtx gen_add2_insn ();
  387. rtx gen_sub2_insn ();
  388. rtx gen_move_insn ();
  389.  
  390. /* Emit one rtl instruction to store zero in specified rtx.  */
  391. void emit_clr_insn ();
  392.  
  393. /* Emit one rtl insn to store 1 in specified rtx assuming it contains 0.  */
  394. void emit_0_to_1_insn ();
  395.  
  396. /* Emit one rtl insn to compare two rtx's.  */
  397. void emit_cmp_insn ();
  398.  
  399. /* Generate rtl to compate two rtx's, will call emit_cmp_insn.  */
  400. rtx compare_from_rtx ();
  401.  
  402. /* Emit some rtl insns to move data between rtx's, converting machine modes.
  403.    Both modes must be floating or both fixed.  */
  404. void convert_move ();
  405.  
  406. /* Convert an rtx to specified machine mode and return the result.  */
  407. rtx convert_to_mode ();
  408.  
  409. /* Emit code to push some arguments and call a library routine,
  410.    storing the value in a specified place.  Calling sequence is
  411.    complicated.  */
  412. void emit_library_call ();
  413.  
  414. /* Given an rtx that may include add and multiply operations,
  415.    generate them as insns and return a pseudo-reg containing the value.
  416.    Useful after calling expand_expr with 1 as sum_ok.  */
  417. rtx force_operand ();
  418.  
  419. /* Return an rtx for the size in bytes of the value of an expr.  */
  420. rtx expr_size ();
  421.  
  422. /* Return an rtx for the sum of an rtx and an integer.  */
  423. rtx plus_constant ();
  424.  
  425. rtx lookup_static_chain ();
  426.  
  427. /* Return an rtx like arg but sans any constant terms.
  428.    Returns the original rtx if it has no constant terms.
  429.    The constant terms are added and stored via a second arg.  */
  430. rtx eliminate_constant_term ();
  431.  
  432. /* Convert arg to a valid memory address for specified machine mode,
  433.    by emitting insns to perform arithmetic if nec.  */
  434. rtx memory_address ();
  435.  
  436. /* Like `memory_address' but pretent `flag_force_addr' is 0.  */
  437. rtx memory_address_noforce ();
  438.  
  439. /* Return a memory reference like MEMREF, but with its mode changed
  440.    to MODE and its address changed to ADDR.
  441.    (VOIDmode means don't change the mode.
  442.    NULL for ADDR means don't change the address.)  */
  443. rtx change_address ();
  444.  
  445. /* Return a memory reference like MEMREF, but which is known to have a
  446.    valid address.  */
  447.  
  448. rtx validize_mem ();
  449.  
  450. /* Convert a stack slot address ADDR valid in function FNDECL
  451.    into an address valid in this function (using a static chain).  */
  452. rtx fix_lexical_addr ();
  453.  
  454. /* Return the address of the trampoline for entering nested fn FUNCTION.  */
  455. rtx trampoline_address ();
  456.  
  457. /* Assemble the static constant template for function entry trampolines.  */
  458. rtx assemble_trampoline_template ();
  459.  
  460. /* Return 1 if two rtx's are equivalent in structure and elements.  */
  461. int rtx_equal_p ();
  462.  
  463. /* Given rtx, return new rtx whose address won't be affected by
  464.    any side effects.  It has been copied to a new temporary reg.  */
  465. rtx stabilize ();
  466.  
  467. /* Given an rtx, copy all regs it refers to into new temps
  468.    and return a modified copy that refers to the new temps.  */
  469. rtx copy_all_regs ();
  470.  
  471. /* Copy given rtx to a new temp reg and return that.  */
  472. rtx copy_to_reg ();
  473.  
  474. /* Like copy_to_reg but always make the reg Pmode.  */
  475. rtx copy_addr_to_reg ();
  476.  
  477. /* Like copy_to_reg but always make the reg the specified mode MODE.  */
  478. rtx copy_to_mode_reg ();
  479.  
  480. /* Copy given rtx to given temp reg and return that.  */
  481. rtx copy_to_suggested_reg ();
  482.  
  483. /* Copy a value to a register if it isn't already a register.
  484.    Args are mode (in case value is a constant) and the value.  */
  485. rtx force_reg ();
  486.  
  487. /* Return given rtx, copied into a new temp reg if it was in memory.  */
  488. rtx force_not_mem ();
  489.  
  490. /* Remove some bytes from the stack.  An rtx says how many.  */
  491. void adjust_stack ();
  492.  
  493. /* Add some bytes to the stack.  An rtx says how many.  */
  494. void anti_adjust_stack ();
  495.  
  496. /* Allocate some space on the stack dynamically and return its address.  An rtx
  497.    says how many bytes.  */
  498. rtx allocate_dynamic_stack_space ();
  499.  
  500. /* Emit code to copy function value to a new temp reg and return that reg.  */
  501. rtx function_value ();
  502.  
  503. /* Return an rtx that refers to the value returned by a function
  504.    in its original home.  This becomes invalid if any more code is emitted.  */
  505. rtx hard_function_value ();
  506.  
  507. /* Return an rtx that refers to the value returned by a library call
  508.    in its original home.  This becomes invalid if any more code is emitted.  */
  509. rtx hard_libcall_value ();
  510.  
  511. /* Emit code to copy function value to a specified place.  */
  512. void copy_function_value ();
  513.  
  514. /* Given an rtx, return an rtx for a value rounded up to a multiple
  515.    of STACK_BOUNDARY / BITS_PER_UNIT.  */
  516. rtx round_push ();
  517.  
  518. /* Push a block of length SIZE (perhaps variable)
  519.    and return an rtx to address the beginning of the block.  */
  520. rtx push_block ();
  521.  
  522. /* Generate code for computing expression EXP,
  523.    and storing the value into TARGET.
  524.    If SUGGEST_REG is nonzero, copy the value through a register
  525.    and return that register, if that is possible.  */
  526. rtx store_expr ();
  527.  
  528. rtx prepare_call_address ();
  529. rtx expand_call ();
  530. void emit_call_1 ();
  531.  
  532. void emit_block_move ();
  533. void emit_push_insn ();
  534. void use_regs ();
  535. void move_block_to_reg ();
  536.  
  537. rtx store_bit_field ();
  538. rtx extract_bit_field ();
  539. rtx expand_shift ();
  540. rtx expand_mult ();
  541. rtx expand_divmod ();
  542. rtx expand_mult_add ();
  543. rtx expand_stmt_expr ();
  544. rtx emit_no_conflict_block ();
  545.  
  546. void jumpifnot ();
  547. void jumpif ();
  548. void do_jump ();
  549.  
  550. rtx assemble_static_space ();
  551.  
  552. void locate_and_pad_parm ();
  553.