mirror of
https://github.com/xemu-project/xemu.git
synced 2024-11-27 21:40:49 +00:00
target/arm: Use gvec for NEON_3R_VML
Move mla_op and mls_op expanders from translate-a64.c. Signed-off-by: Richard Henderson <richard.henderson@linaro.org> Message-id: 20181011205206.3552-16-richard.henderson@linaro.org Reviewed-by: Peter Maydell <peter.maydell@linaro.org> Signed-off-by: Peter Maydell <peter.maydell@linaro.org>
This commit is contained in:
parent
f3cd8218d1
commit
4a7832b095
@ -10416,66 +10416,6 @@ static void disas_simd_3same_float(DisasContext *s, uint32_t insn)
|
||||
}
|
||||
}
|
||||
|
||||
static void gen_mla8_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u8(a, a, b);
|
||||
gen_helper_neon_add_u8(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla16_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u16(a, a, b);
|
||||
gen_helper_neon_add_u16(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla32_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
tcg_gen_mul_i32(a, a, b);
|
||||
tcg_gen_add_i32(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla64_i64(TCGv_i64 d, TCGv_i64 a, TCGv_i64 b)
|
||||
{
|
||||
tcg_gen_mul_i64(a, a, b);
|
||||
tcg_gen_add_i64(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla_vec(unsigned vece, TCGv_vec d, TCGv_vec a, TCGv_vec b)
|
||||
{
|
||||
tcg_gen_mul_vec(vece, a, a, b);
|
||||
tcg_gen_add_vec(vece, d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls8_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u8(a, a, b);
|
||||
gen_helper_neon_sub_u8(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls16_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u16(a, a, b);
|
||||
gen_helper_neon_sub_u16(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls32_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
tcg_gen_mul_i32(a, a, b);
|
||||
tcg_gen_sub_i32(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls64_i64(TCGv_i64 d, TCGv_i64 a, TCGv_i64 b)
|
||||
{
|
||||
tcg_gen_mul_i64(a, a, b);
|
||||
tcg_gen_sub_i64(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls_vec(unsigned vece, TCGv_vec d, TCGv_vec a, TCGv_vec b)
|
||||
{
|
||||
tcg_gen_mul_vec(vece, a, a, b);
|
||||
tcg_gen_sub_vec(vece, d, d, a);
|
||||
}
|
||||
|
||||
/* Integer op subgroup of C3.6.16. */
|
||||
static void disas_simd_3same_int(DisasContext *s, uint32_t insn)
|
||||
{
|
||||
@ -10494,52 +10434,6 @@ static void disas_simd_3same_int(DisasContext *s, uint32_t insn)
|
||||
.prefer_i64 = TCG_TARGET_REG_BITS == 64,
|
||||
.vece = MO_64 },
|
||||
};
|
||||
static const GVecGen3 mla_op[4] = {
|
||||
{ .fni4 = gen_mla8_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_8 },
|
||||
{ .fni4 = gen_mla16_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_16 },
|
||||
{ .fni4 = gen_mla32_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_32 },
|
||||
{ .fni8 = gen_mla64_i64,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.prefer_i64 = TCG_TARGET_REG_BITS == 64,
|
||||
.load_dest = true,
|
||||
.vece = MO_64 },
|
||||
};
|
||||
static const GVecGen3 mls_op[4] = {
|
||||
{ .fni4 = gen_mls8_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_8 },
|
||||
{ .fni4 = gen_mls16_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_16 },
|
||||
{ .fni4 = gen_mls32_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_32 },
|
||||
{ .fni8 = gen_mls64_i64,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.prefer_i64 = TCG_TARGET_REG_BITS == 64,
|
||||
.load_dest = true,
|
||||
.vece = MO_64 },
|
||||
};
|
||||
|
||||
int is_q = extract32(insn, 30, 1);
|
||||
int u = extract32(insn, 29, 1);
|
||||
|
@ -5468,7 +5468,7 @@ static void gen_neon_narrow_op(int op, int u, int size,
|
||||
#define NEON_3R_VABA 15
|
||||
#define NEON_3R_VADD_VSUB 16
|
||||
#define NEON_3R_VTST_VCEQ 17
|
||||
#define NEON_3R_VML 18 /* VMLA, VMLAL, VMLS, VMLSL */
|
||||
#define NEON_3R_VML 18 /* VMLA, VMLS */
|
||||
#define NEON_3R_VMUL 19
|
||||
#define NEON_3R_VPMAX 20
|
||||
#define NEON_3R_VPMIN 21
|
||||
@ -6032,6 +6032,117 @@ const GVecGen2i sli_op[4] = {
|
||||
.vece = MO_64 },
|
||||
};
|
||||
|
||||
static void gen_mla8_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u8(a, a, b);
|
||||
gen_helper_neon_add_u8(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls8_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u8(a, a, b);
|
||||
gen_helper_neon_sub_u8(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla16_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u16(a, a, b);
|
||||
gen_helper_neon_add_u16(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls16_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
gen_helper_neon_mul_u16(a, a, b);
|
||||
gen_helper_neon_sub_u16(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla32_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
tcg_gen_mul_i32(a, a, b);
|
||||
tcg_gen_add_i32(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls32_i32(TCGv_i32 d, TCGv_i32 a, TCGv_i32 b)
|
||||
{
|
||||
tcg_gen_mul_i32(a, a, b);
|
||||
tcg_gen_sub_i32(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla64_i64(TCGv_i64 d, TCGv_i64 a, TCGv_i64 b)
|
||||
{
|
||||
tcg_gen_mul_i64(a, a, b);
|
||||
tcg_gen_add_i64(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls64_i64(TCGv_i64 d, TCGv_i64 a, TCGv_i64 b)
|
||||
{
|
||||
tcg_gen_mul_i64(a, a, b);
|
||||
tcg_gen_sub_i64(d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mla_vec(unsigned vece, TCGv_vec d, TCGv_vec a, TCGv_vec b)
|
||||
{
|
||||
tcg_gen_mul_vec(vece, a, a, b);
|
||||
tcg_gen_add_vec(vece, d, d, a);
|
||||
}
|
||||
|
||||
static void gen_mls_vec(unsigned vece, TCGv_vec d, TCGv_vec a, TCGv_vec b)
|
||||
{
|
||||
tcg_gen_mul_vec(vece, a, a, b);
|
||||
tcg_gen_sub_vec(vece, d, d, a);
|
||||
}
|
||||
|
||||
/* Note that while NEON does not support VMLA and VMLS as 64-bit ops,
|
||||
* these tables are shared with AArch64 which does support them.
|
||||
*/
|
||||
const GVecGen3 mla_op[4] = {
|
||||
{ .fni4 = gen_mla8_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_8 },
|
||||
{ .fni4 = gen_mla16_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_16 },
|
||||
{ .fni4 = gen_mla32_i32,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_32 },
|
||||
{ .fni8 = gen_mla64_i64,
|
||||
.fniv = gen_mla_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.prefer_i64 = TCG_TARGET_REG_BITS == 64,
|
||||
.load_dest = true,
|
||||
.vece = MO_64 },
|
||||
};
|
||||
|
||||
const GVecGen3 mls_op[4] = {
|
||||
{ .fni4 = gen_mls8_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_8 },
|
||||
{ .fni4 = gen_mls16_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_16 },
|
||||
{ .fni4 = gen_mls32_i32,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.load_dest = true,
|
||||
.vece = MO_32 },
|
||||
{ .fni8 = gen_mls64_i64,
|
||||
.fniv = gen_mls_vec,
|
||||
.opc = INDEX_op_mul_vec,
|
||||
.prefer_i64 = TCG_TARGET_REG_BITS == 64,
|
||||
.load_dest = true,
|
||||
.vece = MO_64 },
|
||||
};
|
||||
|
||||
/* Translate a NEON data processing instruction. Return nonzero if the
|
||||
instruction is invalid.
|
||||
We process data in a mixture of 32-bit and 64-bit chunks.
|
||||
@ -6233,7 +6344,13 @@ static int disas_neon_data_insn(DisasContext *s, uint32_t insn)
|
||||
return 0;
|
||||
}
|
||||
break;
|
||||
|
||||
case NEON_3R_VML: /* VMLA, VMLS */
|
||||
tcg_gen_gvec_3(rd_ofs, rn_ofs, rm_ofs, vec_size, vec_size,
|
||||
u ? &mls_op[size] : &mla_op[size]);
|
||||
return 0;
|
||||
}
|
||||
|
||||
if (size == 3) {
|
||||
/* 64-bit element instructions. */
|
||||
for (pass = 0; pass < (q ? 2 : 1); pass++) {
|
||||
@ -6435,21 +6552,6 @@ static int disas_neon_data_insn(DisasContext *s, uint32_t insn)
|
||||
}
|
||||
}
|
||||
break;
|
||||
case NEON_3R_VML: /* VMLA, VMLAL, VMLS,VMLSL */
|
||||
switch (size) {
|
||||
case 0: gen_helper_neon_mul_u8(tmp, tmp, tmp2); break;
|
||||
case 1: gen_helper_neon_mul_u16(tmp, tmp, tmp2); break;
|
||||
case 2: tcg_gen_mul_i32(tmp, tmp, tmp2); break;
|
||||
default: abort();
|
||||
}
|
||||
tcg_temp_free_i32(tmp2);
|
||||
tmp2 = neon_load_reg(rd, pass);
|
||||
if (u) { /* VMLS */
|
||||
gen_neon_rsb(size, tmp, tmp2);
|
||||
} else { /* VMLA */
|
||||
gen_neon_add(size, tmp, tmp2);
|
||||
}
|
||||
break;
|
||||
case NEON_3R_VMUL:
|
||||
/* VMUL.P8; other cases already eliminated. */
|
||||
gen_helper_neon_mul_p8(tmp, tmp, tmp2);
|
||||
|
@ -196,6 +196,8 @@ static inline TCGv_i32 get_ahp_flag(void)
|
||||
extern const GVecGen3 bsl_op;
|
||||
extern const GVecGen3 bit_op;
|
||||
extern const GVecGen3 bif_op;
|
||||
extern const GVecGen3 mla_op[4];
|
||||
extern const GVecGen3 mls_op[4];
|
||||
extern const GVecGen2i ssra_op[4];
|
||||
extern const GVecGen2i usra_op[4];
|
||||
extern const GVecGen2i sri_op[4];
|
||||
|
Loading…
Reference in New Issue
Block a user