Редовете в таблица няма да представляват проблем сами по себе си.
Така че грубо казано 1 милион реда на ден за 90 дни са 90 милиона реда. Не виждам причина Postgres да не може да се справи с това, без да знае всички подробности за това, което правите.
В зависимост от вашето разпределение на данни можете да използвате комбинация от индекси, филтрирани индекси и разделяне на таблици от някакъв вид, за да ускорите нещата, след като видите какви проблеми с производителността може или не може да имате. Вашият проблем ще бъде същият на всяка друга RDMS, за която знам. Ако имате нужда само от 3 месеца проектиране на данни в процес на премахване на данните, от които нямате повече нужда. По този начин ще имате постоянен обем от данни в таблицата. Вашият късмет, че знаете колко данни ще съществуват, тествайте ги за вашия обем и вижте какво ще получите. Тестването на една таблица с 90 милиона реда може да бъде толкова лесно, колкото:
select x,1 as c2,2 as c3
from generate_series(1,90000000) x;
https://wiki.postgresql.org/wiki/FAQ
Limit Value
Maximum Database Size Unlimited
Maximum Table Size 32 TB
Maximum Row Size 1.6 TB
Maximum Field Size 1 GB
Maximum Rows per Table Unlimited
Maximum Columns per Table 250 - 1600 depending on column types
Maximum Indexes per Table Unlimited