mirror of
https://github.com/xemu-project/xemu.git
synced 2025-02-02 10:12:03 +00:00
target/arm: Implement MVE fp vector comparisons
Implement the MVE fp vector comparisons VCMP and VPT. Signed-off-by: Peter Maydell <peter.maydell@linaro.org> Reviewed-by: Richard Henderson <richard.henderson@linaro.org>
This commit is contained in:
parent
29f80e7d83
commit
c87fe6d28c
@ -813,6 +813,24 @@ DEF_HELPER_FLAGS_3(mve_vcmple_scalarb, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||
DEF_HELPER_FLAGS_3(mve_vcmple_scalarh, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||
DEF_HELPER_FLAGS_3(mve_vcmple_scalarw, TCG_CALL_NO_WG, void, env, ptr, i32)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpeqh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpeqs, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpneh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpnes, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpgeh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpges, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmplth, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmplts, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpgth, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpgts, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmpleh, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
DEF_HELPER_FLAGS_3(mve_vfcmples, TCG_CALL_NO_WG, void, env, ptr, ptr)
|
||||
|
||||
DEF_HELPER_FLAGS_4(mve_vfadd_scalarh, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||
DEF_HELPER_FLAGS_4(mve_vfadd_scalars, TCG_CALL_NO_WG, void, env, ptr, ptr, i32)
|
||||
|
||||
|
@ -124,6 +124,9 @@
|
||||
@vcmp_scalar .... .... .. size:2 qn:3 . .... .... .... rm:4 &vcmp_scalar \
|
||||
mask=%mask_22_13
|
||||
|
||||
@vcmp_fp .... .... .... qn:3 . .... .... .... .... &vcmp \
|
||||
qm=%qm size=%2op_fp_scalar_size mask=%mask_22_13
|
||||
|
||||
@vmaxv .... .... .... size:2 .. rda:4 .... .... .... &vmaxv qm=%qm
|
||||
|
||||
@2op_fp .... .... .... .... .... .... .... .... &2op \
|
||||
@ -671,17 +674,41 @@ VSHLC 111 0 1110 1 . 1 imm:5 ... 0 1111 1100 rdm:4 qd=%qd
|
||||
# Comparisons. We expand out the conditions which are split across
|
||||
# encodings T1, T2, T3 and the fc bits. These include VPT, which is
|
||||
# effectively "VCMP then VPST". A plain "VCMP" has a mask field of zero.
|
||||
VCMPEQ 1111 1110 0 . .. ... 1 ... 0 1111 0 0 . 0 ... 0 @vcmp
|
||||
VCMPNE 1111 1110 0 . .. ... 1 ... 0 1111 1 0 . 0 ... 0 @vcmp
|
||||
{
|
||||
VCMPEQ_fp 111 . 1110 0 . 11 ... 1 ... 0 1111 0 0 . 0 ... 0 @vcmp_fp
|
||||
VCMPEQ 111 1 1110 0 . .. ... 1 ... 0 1111 0 0 . 0 ... 0 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VCMPNE_fp 111 . 1110 0 . 11 ... 1 ... 0 1111 1 0 . 0 ... 0 @vcmp_fp
|
||||
VCMPNE 111 1 1110 0 . .. ... 1 ... 0 1111 1 0 . 0 ... 0 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VCMPGE_fp 111 . 1110 0 . 11 ... 1 ... 1 1111 0 0 . 0 ... 0 @vcmp_fp
|
||||
VCMPGE 111 1 1110 0 . .. ... 1 ... 1 1111 0 0 . 0 ... 0 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VCMPLT_fp 111 . 1110 0 . 11 ... 1 ... 1 1111 1 0 . 0 ... 0 @vcmp_fp
|
||||
VCMPLT 111 1 1110 0 . .. ... 1 ... 1 1111 1 0 . 0 ... 0 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VCMPGT_fp 111 . 1110 0 . 11 ... 1 ... 1 1111 0 0 . 0 ... 1 @vcmp_fp
|
||||
VCMPGT 111 1 1110 0 . .. ... 1 ... 1 1111 0 0 . 0 ... 1 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VCMPLE_fp 111 . 1110 0 . 11 ... 1 ... 1 1111 1 0 . 0 ... 1 @vcmp_fp
|
||||
VCMPLE 1111 1110 0 . .. ... 1 ... 1 1111 1 0 . 0 ... 1 @vcmp
|
||||
}
|
||||
|
||||
{
|
||||
VPSEL 1111 1110 0 . 11 ... 1 ... 0 1111 . 0 . 0 ... 1 @2op_nosz
|
||||
VCMPCS 1111 1110 0 . .. ... 1 ... 0 1111 0 0 . 0 ... 1 @vcmp
|
||||
VCMPHI 1111 1110 0 . .. ... 1 ... 0 1111 1 0 . 0 ... 1 @vcmp
|
||||
}
|
||||
VCMPGE 1111 1110 0 . .. ... 1 ... 1 1111 0 0 . 0 ... 0 @vcmp
|
||||
VCMPLT 1111 1110 0 . .. ... 1 ... 1 1111 1 0 . 0 ... 0 @vcmp
|
||||
VCMPGT 1111 1110 0 . .. ... 1 ... 1 1111 0 0 . 0 ... 1 @vcmp
|
||||
VCMPLE 1111 1110 0 . .. ... 1 ... 1 1111 1 0 . 0 ... 1 @vcmp
|
||||
|
||||
{
|
||||
VPNOT 1111 1110 0 0 11 000 1 000 0 1111 0100 1101
|
||||
|
@ -3156,3 +3156,67 @@ DO_FP_VMAXMINV(vmaxnmavh, 2, float16, true, float16_maxnum)
|
||||
DO_FP_VMAXMINV(vmaxnmavs, 4, float32, true, float32_maxnum)
|
||||
DO_FP_VMAXMINV(vminnmavh, 2, float16, true, float16_minnum)
|
||||
DO_FP_VMAXMINV(vminnmavs, 4, float32, true, float32_minnum)
|
||||
|
||||
/* FP compares; note that all comparisons signal InvalidOp for QNaNs */
|
||||
#define DO_VCMP_FP(OP, ESIZE, TYPE, FN) \
|
||||
void HELPER(glue(mve_, OP))(CPUARMState *env, void *vn, void *vm) \
|
||||
{ \
|
||||
TYPE *n = vn, *m = vm; \
|
||||
uint16_t mask = mve_element_mask(env); \
|
||||
uint16_t eci_mask = mve_eci_mask(env); \
|
||||
uint16_t beatpred = 0; \
|
||||
uint16_t emask = MAKE_64BIT_MASK(0, ESIZE); \
|
||||
unsigned e; \
|
||||
float_status *fpst; \
|
||||
float_status scratch_fpst; \
|
||||
bool r; \
|
||||
for (e = 0; e < 16 / ESIZE; e++, emask <<= ESIZE) { \
|
||||
if ((mask & emask) == 0) { \
|
||||
continue; \
|
||||
} \
|
||||
fpst = (ESIZE == 2) ? &env->vfp.standard_fp_status_f16 : \
|
||||
&env->vfp.standard_fp_status; \
|
||||
if (!(mask & (1 << (e * ESIZE)))) { \
|
||||
/* We need the result but without updating flags */ \
|
||||
scratch_fpst = *fpst; \
|
||||
fpst = &scratch_fpst; \
|
||||
} \
|
||||
r = FN(n[H##ESIZE(e)], m[H##ESIZE(e)], fpst); \
|
||||
/* Comparison sets 0/1 bits for each byte in the element */ \
|
||||
beatpred |= r * emask; \
|
||||
} \
|
||||
beatpred &= mask; \
|
||||
env->v7m.vpr = (env->v7m.vpr & ~(uint32_t)eci_mask) | \
|
||||
(beatpred & eci_mask); \
|
||||
mve_advance_vpt(env); \
|
||||
}
|
||||
|
||||
/*
|
||||
* Some care is needed here to get the correct result for the unordered case.
|
||||
* Architecturally EQ, GE and GT are defined to be false for unordered, but
|
||||
* the NE, LT and LE comparisons are defined as simple logical inverses of
|
||||
* EQ, GE and GT and so they must return true for unordered. The softfloat
|
||||
* comparison functions float*_{eq,le,lt} all return false for unordered.
|
||||
*/
|
||||
#define DO_GE16(X, Y, S) float16_le(Y, X, S)
|
||||
#define DO_GE32(X, Y, S) float32_le(Y, X, S)
|
||||
#define DO_GT16(X, Y, S) float16_lt(Y, X, S)
|
||||
#define DO_GT32(X, Y, S) float32_lt(Y, X, S)
|
||||
|
||||
DO_VCMP_FP(vfcmpeqh, 2, float16, float16_eq)
|
||||
DO_VCMP_FP(vfcmpeqs, 4, float32, float32_eq)
|
||||
|
||||
DO_VCMP_FP(vfcmpneh, 2, float16, !float16_eq)
|
||||
DO_VCMP_FP(vfcmpnes, 4, float32, !float32_eq)
|
||||
|
||||
DO_VCMP_FP(vfcmpgeh, 2, float16, DO_GE16)
|
||||
DO_VCMP_FP(vfcmpges, 4, float32, DO_GE32)
|
||||
|
||||
DO_VCMP_FP(vfcmplth, 2, float16, !DO_GE16)
|
||||
DO_VCMP_FP(vfcmplts, 4, float32, !DO_GE32)
|
||||
|
||||
DO_VCMP_FP(vfcmpgth, 2, float16, DO_GT16)
|
||||
DO_VCMP_FP(vfcmpgts, 4, float32, DO_GT32)
|
||||
|
||||
DO_VCMP_FP(vfcmpleh, 2, float16, !DO_GT16)
|
||||
DO_VCMP_FP(vfcmples, 4, float32, !DO_GT32)
|
||||
|
@ -1758,6 +1758,28 @@ DO_VCMP(VCMPLT, vcmplt)
|
||||
DO_VCMP(VCMPGT, vcmpgt)
|
||||
DO_VCMP(VCMPLE, vcmple)
|
||||
|
||||
#define DO_VCMP_FP(INSN, FN) \
|
||||
static bool trans_##INSN(DisasContext *s, arg_vcmp *a) \
|
||||
{ \
|
||||
static MVEGenCmpFn * const fns[] = { \
|
||||
NULL, \
|
||||
gen_helper_mve_##FN##h, \
|
||||
gen_helper_mve_##FN##s, \
|
||||
NULL, \
|
||||
}; \
|
||||
if (!dc_isar_feature(aa32_mve_fp, s)) { \
|
||||
return false; \
|
||||
} \
|
||||
return do_vcmp(s, a, fns[a->size]); \
|
||||
}
|
||||
|
||||
DO_VCMP_FP(VCMPEQ_fp, vfcmpeq)
|
||||
DO_VCMP_FP(VCMPNE_fp, vfcmpne)
|
||||
DO_VCMP_FP(VCMPGE_fp, vfcmpge)
|
||||
DO_VCMP_FP(VCMPLT_fp, vfcmplt)
|
||||
DO_VCMP_FP(VCMPGT_fp, vfcmpgt)
|
||||
DO_VCMP_FP(VCMPLE_fp, vfcmple)
|
||||
|
||||
static bool do_vmaxv(DisasContext *s, arg_vmaxv *a, MVEGenVADDVFn fn)
|
||||
{
|
||||
/*
|
||||
|
Loading…
x
Reference in New Issue
Block a user