kernel_samsung_a34x-permissive/drivers/devfreq/helio-dvfsrc-v3/helio-dvfsrc-opp-mt6833.c
2024-04-28 15:51:13 +02:00

306 lines
7.3 KiB
C

/* SPDX-License-Identifier: GPL-2.0 */
/*
* Copyright (c) 2019 MediaTek Inc.
*/
#include <linux/kernel.h>
#include <mt-plat/mtk_devinfo.h>
#include <linux/of.h>
#include <linux/of_address.h>
#include <helio-dvfsrc-opp.h>
#include <helio-dvfsrc-qos.h>
#include <helio-dvfsrc-mt6833.h>
#ifdef CONFIG_MEDIATEK_DRAMC
#include <dramc.h>
#endif
#define SOC_CPE_DETECT
#define AGING_VALUE 12500
#define V_VMODE_SHIFT 0
#define V_AGING_SHIFT 4
#define V_CT_SHIFT 5
#define V_CT_TEST_SHIFT 6
#define V_CT_OPP3_SHIFT 7
static int opp_min_bin_opp0;
static int opp_min_bin_opp3;
static int is_vcore_ct;
static int dvfsrc_rsrv;
#ifndef CONFIG_MEDIATEK_DRAMC
static int mtk_dramc_get_steps_freq(unsigned int step)
{
pr_info("get dram steps_freq fail\n");
return 4266;
}
#endif
u32 dvfsrc_ct_mode(void)
{
return is_vcore_ct;
}
u32 dvfsrc_vcore_mode(void)
{
return dvfsrc_rsrv;
}
void dvfsrc_opp_level_mapping(void)
{
set_vcore_opp(VCORE_DVFS_OPP_0, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_1, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_2, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_3, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_4, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_5, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_6, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_7, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_8, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_9, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_10, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_11, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_12, VCORE_OPP_3);
set_vcore_opp(VCORE_DVFS_OPP_13, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_14, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_15, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_16, VCORE_OPP_3);
set_vcore_opp(VCORE_DVFS_OPP_17, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_18, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_19, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_20, VCORE_OPP_3);
set_vcore_opp(VCORE_DVFS_OPP_21, VCORE_OPP_0);
set_vcore_opp(VCORE_DVFS_OPP_22, VCORE_OPP_1);
set_vcore_opp(VCORE_DVFS_OPP_23, VCORE_OPP_2);
set_vcore_opp(VCORE_DVFS_OPP_24, VCORE_OPP_3);
set_ddr_opp(VCORE_DVFS_OPP_0, DDR_OPP_0);
set_ddr_opp(VCORE_DVFS_OPP_1, DDR_OPP_1);
set_ddr_opp(VCORE_DVFS_OPP_2, DDR_OPP_1);
set_ddr_opp(VCORE_DVFS_OPP_3, DDR_OPP_2);
set_ddr_opp(VCORE_DVFS_OPP_4, DDR_OPP_2);
set_ddr_opp(VCORE_DVFS_OPP_5, DDR_OPP_2);
set_ddr_opp(VCORE_DVFS_OPP_6, DDR_OPP_3);
set_ddr_opp(VCORE_DVFS_OPP_7, DDR_OPP_3);
set_ddr_opp(VCORE_DVFS_OPP_8, DDR_OPP_3);
set_ddr_opp(VCORE_DVFS_OPP_9, DDR_OPP_4);
set_ddr_opp(VCORE_DVFS_OPP_10, DDR_OPP_4);
set_ddr_opp(VCORE_DVFS_OPP_11, DDR_OPP_4);
set_ddr_opp(VCORE_DVFS_OPP_12, DDR_OPP_4);
set_ddr_opp(VCORE_DVFS_OPP_13, DDR_OPP_5);
set_ddr_opp(VCORE_DVFS_OPP_14, DDR_OPP_5);
set_ddr_opp(VCORE_DVFS_OPP_15, DDR_OPP_5);
set_ddr_opp(VCORE_DVFS_OPP_16, DDR_OPP_5);
set_ddr_opp(VCORE_DVFS_OPP_17, DDR_OPP_6);
set_ddr_opp(VCORE_DVFS_OPP_18, DDR_OPP_6);
set_ddr_opp(VCORE_DVFS_OPP_19, DDR_OPP_6);
set_ddr_opp(VCORE_DVFS_OPP_20, DDR_OPP_6);
set_ddr_opp(VCORE_DVFS_OPP_21, DDR_OPP_7);
set_ddr_opp(VCORE_DVFS_OPP_22, DDR_OPP_7);
set_ddr_opp(VCORE_DVFS_OPP_23, DDR_OPP_7);
set_ddr_opp(VCORE_DVFS_OPP_24, DDR_OPP_7);
}
void dvfsrc_opp_table_init(void)
{
int i;
int vcore_opp, ddr_opp;
for (i = 0; i < VCORE_DVFS_OPP_NUM; i++) {
vcore_opp = get_vcore_opp(i);
ddr_opp = get_ddr_opp(i);
if (vcore_opp == VCORE_OPP_UNREQ || ddr_opp == DDR_OPP_UNREQ) {
set_opp_table(i, 0, 0);
continue;
}
set_opp_table(i, get_vcore_uv_table(vcore_opp),
mtk_dramc_get_steps_freq(ddr_opp) * 1000);
}
}
static int get_vb_volt(int vcore_opp)
{
int idx;
int ret = 0;
int ptpod = get_devinfo_with_index(209);
pr_info("%s: PTPOD: 0x%x\n", __func__, ptpod);
switch (vcore_opp) {
case VCORE_OPP_0:
idx = (ptpod >> 4) & 0x7;
if (idx >= opp_min_bin_opp0)
ret = 1;
break;
case VCORE_OPP_3:
idx = ptpod & 0xF;
if (idx >= opp_min_bin_opp3 && idx < 10)
ret = 1;
break;
default:
break;
}
return ret * 25000;
}
static int is_rising_need(void)
{
int idx;
int ptpod = get_devinfo_with_index(209);
pr_info("%s: PTPOD: 0x%x\n", __func__, ptpod);
idx = ptpod & 0xF;
if (idx == 1 || idx == 2)
return idx;
return 0;
}
static int __init dvfsrc_opp_init(void)
{
struct device_node *dvfsrc_node = NULL;
int vcore_opp_0_uv, vcore_opp_1_uv, vcore_opp_2_uv, vcore_opp_3_uv;
int ct_test = 0;
int is_vcore_aging = 0;
int ct_opp3_en = 0;
int dvfs_v_mode = 0;
void __iomem *dvfsrc_base;
set_pwrap_cmd(VCORE_OPP_0, 0);
set_pwrap_cmd(VCORE_OPP_1, 1);
set_pwrap_cmd(VCORE_OPP_2, 2);
set_pwrap_cmd(VCORE_OPP_3, 3);
vcore_opp_0_uv = 725000;
vcore_opp_1_uv = 650000;
vcore_opp_2_uv = 600000;
vcore_opp_3_uv = 550000;
dvfsrc_node =
of_find_compatible_node(NULL, NULL, "mediatek,dvfsrc");
/* For Doe */
if (dvfsrc_node) {
dvfsrc_base = of_iomap(dvfsrc_node, 0);
if (dvfsrc_base) {
dvfsrc_rsrv = readl(dvfsrc_base + 0x610);
iounmap(dvfsrc_base);
}
pr_info("%s: vcore_arg = %08x\n",
__func__, dvfsrc_rsrv);
dvfs_v_mode = (dvfsrc_rsrv >> V_VMODE_SHIFT) & 0x3;
is_vcore_ct = (dvfsrc_rsrv >> V_CT_SHIFT) & 0x1;
ct_test = (dvfsrc_rsrv >> V_CT_TEST_SHIFT) & 0x1;
is_vcore_aging = (dvfsrc_rsrv >> V_AGING_SHIFT) & 0x1;
ct_opp3_en = (dvfsrc_rsrv >> V_CT_OPP3_SHIFT) & 0x1;
}
if (is_vcore_ct) {
if (ct_test) {
opp_min_bin_opp0 = 2;
opp_min_bin_opp3 = 4;
} else {
opp_min_bin_opp0 = 3;
opp_min_bin_opp3 = 5;
}
vcore_opp_0_uv -= get_vb_volt(VCORE_OPP_0);
if (ct_opp3_en)
vcore_opp_3_uv -= get_vb_volt(VCORE_OPP_3);
}
if (is_rising_need() == 2)
vcore_opp_3_uv = 575000;
else if (is_rising_need() == 1)
vcore_opp_3_uv = 600000;
if (dvfs_v_mode == 3) {
/* LV */
if (vcore_opp_0_uv == 700000)
vcore_opp_0_uv = 662500;
else
vcore_opp_0_uv = 687500;
vcore_opp_1_uv = 612500;
vcore_opp_2_uv = 568750;
if (vcore_opp_3_uv == 525000)
vcore_opp_3_uv = 493750;
else if (vcore_opp_3_uv == 575000)
vcore_opp_3_uv = 543750;
else if (vcore_opp_3_uv == 600000)
vcore_opp_3_uv = 568750;
else
vcore_opp_3_uv = 518750;
} else if (dvfs_v_mode == 1) {
/* HV */
if (vcore_opp_0_uv == 700000)
vcore_opp_0_uv = 737500;
else
vcore_opp_0_uv = 762500;
vcore_opp_1_uv = 687500;
vcore_opp_2_uv = 631250;
if (vcore_opp_3_uv == 525000)
vcore_opp_3_uv = 556250;
else if (vcore_opp_3_uv == 575000)
vcore_opp_3_uv = 606250;
else if (vcore_opp_3_uv == 600000)
vcore_opp_3_uv = 631250;
else
vcore_opp_3_uv = 581250;
} else if (is_vcore_aging) {
vcore_opp_0_uv -= AGING_VALUE;
vcore_opp_1_uv -= AGING_VALUE;
vcore_opp_2_uv -= AGING_VALUE;
vcore_opp_3_uv -= AGING_VALUE;
}
if (vcore_opp_3_uv < VCORE_BASE_UV)
vcore_opp_3_uv = VCORE_BASE_UV;
pr_info("%s: CT=%d, VMODE=%d, RSV4=%x\n",
__func__,
is_vcore_ct,
dvfs_v_mode,
dvfsrc_rsrv);
pr_info("%s: FINAL vcore_opp_uv: %d, %d, %d, %d\n",
__func__,
vcore_opp_0_uv,
vcore_opp_1_uv,
vcore_opp_2_uv,
vcore_opp_3_uv);
set_vcore_uv_table(VCORE_OPP_0, vcore_opp_0_uv);
set_vcore_uv_table(VCORE_OPP_1, vcore_opp_1_uv);
set_vcore_uv_table(VCORE_OPP_2, vcore_opp_2_uv);
set_vcore_uv_table(VCORE_OPP_3, vcore_opp_3_uv);
return 0;
}
fs_initcall_sync(dvfsrc_opp_init)
static int __init dvfsrc_dram_opp_init(void)
{
int i;
for (i = 0; i < DDR_OPP_NUM; i++) {
set_opp_ddr_freq(i,
mtk_dramc_get_steps_freq(i) * 1000);
}
return 0;
}
device_initcall_sync(dvfsrc_dram_opp_init)