CubedReLUΒΆ Activation: max(0, x)^3. PyTorchPaxML / Praxis PyTorchAPI: βStrategy: Macro 'lambda x: torch.relu(x)**3'PaxML / PraxisAPI: praxis.layers.CubedReLUStrategy: Direct MappingOfficial Docs β